亚洲国产精品无码久久大片,亚洲AV无码乱码麻豆精品国产,亚洲品质自拍网站,少妇伦子伦精品无码STYLES,国产精久久久久久久

采集自動(dòng)組合

采集自動(dòng)組合

最新版:快客QQ批量加好友怎么下載試試吧?(組圖)

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 197 次瀏覽 ? 2022-10-16 07:16 ? 來(lái)自相關(guān)話(huà)題

  最新版:快客QQ批量加好友怎么下載試試吧?(組圖)
  QQ快速批量添加好友是一款專(zhuān)為營(yíng)銷(xiāo)QQ好友而設計的軟件。軟件支持批量QQ輪播功能,批量加好友,批量發(fā)群消息,并配備隨機功能,最大程度模擬真實(shí)操作,充分利用QQ好友的限制。一種少、直接、準確、高效的QQ營(yíng)銷(xiāo)模式。有需要的朋友可以下載試試!
  軟件說(shuō)明:
  1.驗證碼識別方式全面
  無(wú)需識別即可跳過(guò),可手動(dòng)輸入,驗證碼平臺自動(dòng)識別(注冊充值,填寫(xiě)賬號密碼即可),實(shí)現自動(dòng)無(wú)人掛機,省心
  2.全能換IP模塊有沒(méi)有一鍵軟件,可以自定義換IP的時(shí)機
  軟件包括ADSL寬帶換IP、路由器換IP、91VPN換IP等,IP不能當天重復使用。全面的IP更換方式,可以滿(mǎn)足不同客戶(hù)的需求,也是規避騰訊限制不可缺少的策略(點(diǎn)擊觀(guān)看更換IP,驗證碼自動(dòng)識別通用設置-視頻教程)
  3.軟件功能強大,參數設置非常靈活全面
  您可以自行設置循環(huán)輪數、各種時(shí)間間隔、各種操作次數,輕松應對騰訊在不同時(shí)間段的不同限制策略。
  4.添加好友驗證信息,支持多種貼心自動(dòng)保存功能
  
  自己寫(xiě)N條驗證信息,加上slogan,有沒(méi)有什么軟件可以一鍵加人?軟件可以隨意調用,避開(kāi)騰訊的限制策略之一
  5.支持好友多條消息群發(fā),支持圖片,支持3G群發(fā)和客戶(hù)端群發(fā)
  可以自己寫(xiě)N條消息的內容,發(fā)送圖片,插入隨機干擾變量,比如隨機數、隨機漢字、隨機字母、隨機表情等,可以明文發(fā)送,也可以轉換它們分為文字和發(fā)送圖片(可以自定義圖片的背景顏色),文字顏色,圖片寬度,高度),兩者組合可以隨機發(fā)送。這是逃避騰訊限制的另一種方式
  6.支持3GQQ加好友和客戶(hù)端模擬加好友
  2種模式靈活應用,滿(mǎn)足不同客戶(hù)的不同喜好!3GQQ加好友可以后臺運行,不影響電影使用;
  7. 新增圈內隨機加好友功能
  軟件會(huì )自動(dòng)隨機選擇一些行業(yè)、學(xué)校、地區等相同或相近的QQ好友。
  8.開(kāi)始任務(wù)前確認號碼
  軟件在登錄客戶(hù)端前會(huì )自動(dòng)驗證號碼的有效性,如密碼是否正確、號碼是否正確、是否受限等。
  
  9、軟件自動(dòng)控制QQ客戶(hù)端群發(fā)消息
  軟件自動(dòng)登錄,自動(dòng)隨機選擇好友發(fā)送,完全模擬真實(shí)的人工操作,有效降低號碼被封號或被封號的可能性。
  10.可以導入自己的小號和QQ批量添加,軟件會(huì )自動(dòng)保存
  每次自動(dòng)保存Q加量和Q加狀態(tài),自動(dòng)記錄群消息和好友數。
  11.自動(dòng)記住你的QQ列表進(jìn)度,重啟軟件繼續之前的進(jìn)度
  如果要從頭開(kāi)始,請選擇第一行,或設置為從第一行開(kāi)始工作
  12、快速查詢(xún)對方QQ是否可以不驗證加好友(即單向好友):你懂的
  全網(wǎng)難得一見(jiàn)的功能,千萬(wàn)不要錯過(guò)!
  13. 增加好友的增強模式。年齡較大的朋友,比如2歲以上的朋友,一次最多可以加100個(gè)朋友。如果你需要很多朋友,快點(diǎn)
  教程:什么貓咪最受歡迎?Python爬取全網(wǎng)貓咪圖片,哪一款是你最?lèi)?ài)的
  文章目錄
  前言
  采集目標
  工具準備
  開(kāi)發(fā)工具:pycharm
  開(kāi)發(fā)環(huán)境:python3.7,Windows11 使用工具包:requests
  
  項目構思分析
  做一個(gè)爬蟲(chóng)案例,首先要明確自己的采集目標,白白,這里采集就是當前網(wǎng)頁(yè)的所有圖片信息,有了目標之后,再梳理一下你的自己的代碼編寫(xiě)過(guò)程,一個(gè)爬蟲(chóng)的基本四個(gè)步驟:
  第一步:找到數據地址
  加載數據一般有兩種方式,一種是靜態(tài)的,一種是動(dòng)態(tài)的。當前網(wǎng)頁(yè)的數據在數據向下刷新時(shí)不斷加載??梢耘袛鄶祿虞d的方式是動(dòng)態(tài)的,需要瀏覽器抓取動(dòng)態(tài)數據。工具獲取,右鍵點(diǎn)擊查看,或者按f12的快捷鍵找到加載的數據地址
  找到對應的數據地址,點(diǎn)擊彈出的界面,然后點(diǎn)擊預覽。預覽打開(kāi)的頁(yè)面就是展示給我們的數據。當有很多數據時(shí),我們可以通過(guò)他查看。獲取的數據是通過(guò)URL獲取的,URL數據在請求中。,它將網(wǎng)絡(luò )請求發(fā)送到 URL
  第二步:代碼發(fā)送網(wǎng)絡(luò )請求
  
  有許多用于發(fā)送請求的工具包。在入門(mén)階段,他們大多使用 requests 工具包。Requests是第三方工具包,需要下載: pip install requests 發(fā)送請求時(shí),需要通過(guò)代碼注意我們的請求,web服務(wù)器會(huì )根據http請求。該消息用于區分是瀏覽器還是爬蟲(chóng)。爬蟲(chóng)不流行。爬蟲(chóng)代碼需要偽裝自己。發(fā)送請求時(shí)與 headers 一起傳輸的數據類(lèi)型是字典鍵值對。ua 字段對于瀏覽器來(lái)說(shuō)非常重要。身份證
  第 3 步:提取數據
  當前獲取的數據為動(dòng)態(tài)數據。動(dòng)態(tài)數據和動(dòng)態(tài)數據一般都是json數據。json數據可以直接通過(guò)jsonpath提取,也可以直接轉換成字典。通過(guò)Python進(jìn)行提取的最終目的是提取圖片的url地址。
  提取新地址后,需要再次向該 URL 發(fā)送請求。我們需要的是圖像數據。鏈接一般存儲在數據中。發(fā)送請求,獲取圖片對應的二進(jìn)制數據。
  第 4 步:保存數據
  獲取數據后,存儲數據,選擇存儲數據的位置,選擇寫(xiě)入方式。我們獲取的數據是二進(jìn)制數據,文件訪(fǎng)問(wèn)方式使用的是wb。只需將獲取的圖片寫(xiě)入數據即可。后綴需要是圖像末尾的后綴。您可以選擇用標題命名,或使用 URL 的后面部分來(lái)命名。新手小白想要更輕松地學(xué)習Python基礎、Python爬蟲(chóng)、Web開(kāi)發(fā)、大數據、數據分析、人工智能等技術(shù),這里分享系統教學(xué)資源,聯(lián)系我Wei X:762459510【教程/工具/方法】 / 解惑] 查看全部

  最新版:快客QQ批量加好友怎么下載試試吧?(組圖)
  QQ快速批量添加好友是一款專(zhuān)為營(yíng)銷(xiāo)QQ好友而設計的軟件。軟件支持批量QQ輪播功能,批量加好友,批量發(fā)群消息,并配備隨機功能,最大程度模擬真實(shí)操作,充分利用QQ好友的限制。一種少、直接、準確、高效的QQ營(yíng)銷(xiāo)模式。有需要的朋友可以下載試試!
  軟件說(shuō)明:
  1.驗證碼識別方式全面
  無(wú)需識別即可跳過(guò),可手動(dòng)輸入,驗證碼平臺自動(dòng)識別(注冊充值,填寫(xiě)賬號密碼即可),實(shí)現自動(dòng)無(wú)人掛機,省心
  2.全能換IP模塊有沒(méi)有一鍵軟件,可以自定義換IP的時(shí)機
  軟件包括ADSL寬帶換IP、路由器換IP、91VPN換IP等,IP不能當天重復使用。全面的IP更換方式,可以滿(mǎn)足不同客戶(hù)的需求,也是規避騰訊限制不可缺少的策略(點(diǎn)擊觀(guān)看更換IP,驗證碼自動(dòng)識別通用設置-視頻教程)
  3.軟件功能強大,參數設置非常靈活全面
  您可以自行設置循環(huán)輪數、各種時(shí)間間隔、各種操作次數,輕松應對騰訊在不同時(shí)間段的不同限制策略。
  4.添加好友驗證信息,支持多種貼心自動(dòng)保存功能
  
  自己寫(xiě)N條驗證信息,加上slogan,有沒(méi)有什么軟件可以一鍵加人?軟件可以隨意調用,避開(kāi)騰訊的限制策略之一
  5.支持好友多條消息群發(fā),支持圖片,支持3G群發(fā)和客戶(hù)端群發(fā)
  可以自己寫(xiě)N條消息的內容,發(fā)送圖片,插入隨機干擾變量,比如隨機數、隨機漢字、隨機字母、隨機表情等,可以明文發(fā)送,也可以轉換它們分為文字和發(fā)送圖片(可以自定義圖片的背景顏色),文字顏色,圖片寬度,高度),兩者組合可以隨機發(fā)送。這是逃避騰訊限制的另一種方式
  6.支持3GQQ加好友和客戶(hù)端模擬加好友
  2種模式靈活應用,滿(mǎn)足不同客戶(hù)的不同喜好!3GQQ加好友可以后臺運行,不影響電影使用;
  7. 新增圈內隨機加好友功能
  軟件會(huì )自動(dòng)隨機選擇一些行業(yè)、學(xué)校、地區等相同或相近的QQ好友。
  8.開(kāi)始任務(wù)前確認號碼
  軟件在登錄客戶(hù)端前會(huì )自動(dòng)驗證號碼的有效性,如密碼是否正確、號碼是否正確、是否受限等。
  
  9、軟件自動(dòng)控制QQ客戶(hù)端群發(fā)消息
  軟件自動(dòng)登錄,自動(dòng)隨機選擇好友發(fā)送,完全模擬真實(shí)的人工操作,有效降低號碼被封號或被封號的可能性。
  10.可以導入自己的小號和QQ批量添加,軟件會(huì )自動(dòng)保存
  每次自動(dòng)保存Q加量和Q加狀態(tài),自動(dòng)記錄群消息和好友數。
  11.自動(dòng)記住你的QQ列表進(jìn)度,重啟軟件繼續之前的進(jìn)度
  如果要從頭開(kāi)始,請選擇第一行,或設置為從第一行開(kāi)始工作
  12、快速查詢(xún)對方QQ是否可以不驗證加好友(即單向好友):你懂的
  全網(wǎng)難得一見(jiàn)的功能,千萬(wàn)不要錯過(guò)!
  13. 增加好友的增強模式。年齡較大的朋友,比如2歲以上的朋友,一次最多可以加100個(gè)朋友。如果你需要很多朋友,快點(diǎn)
  教程:什么貓咪最受歡迎?Python爬取全網(wǎng)貓咪圖片,哪一款是你最?lèi)?ài)的
  文章目錄
  前言
  采集目標
  工具準備
  開(kāi)發(fā)工具:pycharm
  開(kāi)發(fā)環(huán)境:python3.7,Windows11 使用工具包:requests
  
  項目構思分析
  做一個(gè)爬蟲(chóng)案例,首先要明確自己的采集目標,白白,這里采集就是當前網(wǎng)頁(yè)的所有圖片信息,有了目標之后,再梳理一下你的自己的代碼編寫(xiě)過(guò)程,一個(gè)爬蟲(chóng)的基本四個(gè)步驟:
  第一步:找到數據地址
  加載數據一般有兩種方式,一種是靜態(tài)的,一種是動(dòng)態(tài)的。當前網(wǎng)頁(yè)的數據在數據向下刷新時(shí)不斷加載??梢耘袛鄶祿虞d的方式是動(dòng)態(tài)的,需要瀏覽器抓取動(dòng)態(tài)數據。工具獲取,右鍵點(diǎn)擊查看,或者按f12的快捷鍵找到加載的數據地址
  找到對應的數據地址,點(diǎn)擊彈出的界面,然后點(diǎn)擊預覽。預覽打開(kāi)的頁(yè)面就是展示給我們的數據。當有很多數據時(shí),我們可以通過(guò)他查看。獲取的數據是通過(guò)URL獲取的,URL數據在請求中。,它將網(wǎng)絡(luò )請求發(fā)送到 URL
  第二步:代碼發(fā)送網(wǎng)絡(luò )請求
  
  有許多用于發(fā)送請求的工具包。在入門(mén)階段,他們大多使用 requests 工具包。Requests是第三方工具包,需要下載: pip install requests 發(fā)送請求時(shí),需要通過(guò)代碼注意我們的請求,web服務(wù)器會(huì )根據http請求。該消息用于區分是瀏覽器還是爬蟲(chóng)。爬蟲(chóng)不流行。爬蟲(chóng)代碼需要偽裝自己。發(fā)送請求時(shí)與 headers 一起傳輸的數據類(lèi)型是字典鍵值對。ua 字段對于瀏覽器來(lái)說(shuō)非常重要。身份證
  第 3 步:提取數據
  當前獲取的數據為動(dòng)態(tài)數據。動(dòng)態(tài)數據和動(dòng)態(tài)數據一般都是json數據。json數據可以直接通過(guò)jsonpath提取,也可以直接轉換成字典。通過(guò)Python進(jìn)行提取的最終目的是提取圖片的url地址。
  提取新地址后,需要再次向該 URL 發(fā)送請求。我們需要的是圖像數據。鏈接一般存儲在數據中。發(fā)送請求,獲取圖片對應的二進(jìn)制數據。
  第 4 步:保存數據
  獲取數據后,存儲數據,選擇存儲數據的位置,選擇寫(xiě)入方式。我們獲取的數據是二進(jìn)制數據,文件訪(fǎng)問(wèn)方式使用的是wb。只需將獲取的圖片寫(xiě)入數據即可。后綴需要是圖像末尾的后綴。您可以選擇用標題命名,或使用 URL 的后面部分來(lái)命名。新手小白想要更輕松地學(xué)習Python基礎、Python爬蟲(chóng)、Web開(kāi)發(fā)、大數據、數據分析、人工智能等技術(shù),這里分享系統教學(xué)資源,聯(lián)系我Wei X:762459510【教程/工具/方法】 / 解惑]

技巧:做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 73 次瀏覽 ? 2022-10-14 12:11 ? 來(lái)自相關(guān)話(huà)題

  技巧:做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品
  采集自動(dòng)組合全局地圖,盡量搜尋文件夾內容規范、遮擋關(guān)系、道路網(wǎng)條件。做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品。自動(dòng)組合地圖盡量使用地面。比如草叢邊際、橋梁間隔等。資源互補,所有物品均可滿(mǎn)足。自動(dòng)尋路能搜索位置非同一物品下,效率更高。地圖搜索適用于主動(dòng)搜索,輸入物品名字,若有則加到搜索范圍內,避免搜索時(shí)遺漏搜索框上面還有幾個(gè)主要功能自動(dòng)搜索資源交換物品提示可玩性已考慮全局地圖策劃和內存評估清理空間和緩存(壓縮)啟動(dòng)速度更高性能一體機可將地圖縮放至4800x4800dpi盡量少使用文件夾式地圖。
  大概就是快排。1.創(chuàng )建一個(gè)小的目錄名為當前游戲的主場(chǎng)景文件夾,在這個(gè)目錄下有四個(gè)子文件夾:游戲-主場(chǎng)景_bundle.py游戲-背景_bundle.py游戲-情景_bundle.py游戲-角色_bundle.py2.再創(chuàng )建新的游戲場(chǎng)景,這里不用擔心場(chǎng)景的bundle上傳。3.新建一個(gè)文件夾叫做主場(chǎng)景,用來(lái)存放主場(chǎng)景的地圖數據文件。
  
  4.將主場(chǎng)景及附近的場(chǎng)景用記事本另存一份就是我們的全景地圖存檔。5.在screencaptureline中存入主場(chǎng)景及附近的場(chǎng)景圖片或影像文件。6.使用游戲進(jìn)程進(jìn)行搜索,如果有匹配的場(chǎng)景就會(huì )顯示主場(chǎng)景以及附近的場(chǎng)景,沒(méi)有匹配的場(chǎng)景的話(huà)會(huì )顯示一個(gè)id為000的路徑。7.搜索完成后會(huì )在按場(chǎng)景進(jìn)行排序,如果有匹配的會(huì )按照xyz進(jìn)行排序,此時(shí)可以判斷這個(gè)場(chǎng)景是否是游戲的服務(wù)器場(chǎng)景。
  8.以上過(guò)程會(huì )消耗游戲200m內存?,F在我們要簡(jiǎn)單設置我們地圖的幾個(gè)主要屬性:寬度高度:寬高使用320*240px的畫(huà)面,并且不能超過(guò)decimality的范圍3,高度的話(huà)在上一篇我們制作了旋轉地圖的處理方法,可以參考。坐標:被計算時(shí),需要確定相機的位置,一般可以通過(guò)4根axis線(xiàn)對相機位置進(jìn)行解算。
  1、相機usb設置mode選擇photometric
  
  2、相機idmenu只有在manual模式下才能得到menu-attribute相機的相機id,其他模式下得到的是resource-attribute并且需要設置。
  名稱(chēng):world
  2、關(guān)于點(diǎn)和面:ie下的點(diǎn)menu-point-references可以查看顯示的面,而非點(diǎn)的位置,這樣方便配合顯示相機的位置。把重點(diǎn)放在ie和iehelp里。點(diǎn)的usb-mode上我用ie的menu-attribute匹配了4張圖片,同理cc和bt需要通過(guò)ie的menu-attribute進(jìn)行匹配。
  關(guān)于相機:ie相機進(jìn)程中會(huì )調用genimg方法從內部磁盤(pán)讀??;iemenu-attribute可以自定義自己的相機類(lèi)型以及所在的相機指針。玩家頭像的話(huà)在waitline方法中。相機驅動(dòng)的。 查看全部

  技巧:做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品
  采集自動(dòng)組合全局地圖,盡量搜尋文件夾內容規范、遮擋關(guān)系、道路網(wǎng)條件。做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品。自動(dòng)組合地圖盡量使用地面。比如草叢邊際、橋梁間隔等。資源互補,所有物品均可滿(mǎn)足。自動(dòng)尋路能搜索位置非同一物品下,效率更高。地圖搜索適用于主動(dòng)搜索,輸入物品名字,若有則加到搜索范圍內,避免搜索時(shí)遺漏搜索框上面還有幾個(gè)主要功能自動(dòng)搜索資源交換物品提示可玩性已考慮全局地圖策劃和內存評估清理空間和緩存(壓縮)啟動(dòng)速度更高性能一體機可將地圖縮放至4800x4800dpi盡量少使用文件夾式地圖。
  大概就是快排。1.創(chuàng )建一個(gè)小的目錄名為當前游戲的主場(chǎng)景文件夾,在這個(gè)目錄下有四個(gè)子文件夾:游戲-主場(chǎng)景_bundle.py游戲-背景_bundle.py游戲-情景_bundle.py游戲-角色_bundle.py2.再創(chuàng )建新的游戲場(chǎng)景,這里不用擔心場(chǎng)景的bundle上傳。3.新建一個(gè)文件夾叫做主場(chǎng)景,用來(lái)存放主場(chǎng)景的地圖數據文件。
  
  4.將主場(chǎng)景及附近的場(chǎng)景用記事本另存一份就是我們的全景地圖存檔。5.在screencaptureline中存入主場(chǎng)景及附近的場(chǎng)景圖片或影像文件。6.使用游戲進(jìn)程進(jìn)行搜索,如果有匹配的場(chǎng)景就會(huì )顯示主場(chǎng)景以及附近的場(chǎng)景,沒(méi)有匹配的場(chǎng)景的話(huà)會(huì )顯示一個(gè)id為000的路徑。7.搜索完成后會(huì )在按場(chǎng)景進(jìn)行排序,如果有匹配的會(huì )按照xyz進(jìn)行排序,此時(shí)可以判斷這個(gè)場(chǎng)景是否是游戲的服務(wù)器場(chǎng)景。
  8.以上過(guò)程會(huì )消耗游戲200m內存?,F在我們要簡(jiǎn)單設置我們地圖的幾個(gè)主要屬性:寬度高度:寬高使用320*240px的畫(huà)面,并且不能超過(guò)decimality的范圍3,高度的話(huà)在上一篇我們制作了旋轉地圖的處理方法,可以參考。坐標:被計算時(shí),需要確定相機的位置,一般可以通過(guò)4根axis線(xiàn)對相機位置進(jìn)行解算。
  1、相機usb設置mode選擇photometric
  
  2、相機idmenu只有在manual模式下才能得到menu-attribute相機的相機id,其他模式下得到的是resource-attribute并且需要設置。
  名稱(chēng):world
  2、關(guān)于點(diǎn)和面:ie下的點(diǎn)menu-point-references可以查看顯示的面,而非點(diǎn)的位置,這樣方便配合顯示相機的位置。把重點(diǎn)放在ie和iehelp里。點(diǎn)的usb-mode上我用ie的menu-attribute匹配了4張圖片,同理cc和bt需要通過(guò)ie的menu-attribute進(jìn)行匹配。
  關(guān)于相機:ie相機進(jìn)程中會(huì )調用genimg方法從內部磁盤(pán)讀??;iemenu-attribute可以自定義自己的相機類(lèi)型以及所在的相機指針。玩家頭像的話(huà)在waitline方法中。相機驅動(dòng)的。

采集自動(dòng)組合 干貨:如何給一本書(shū)生成標,當然你得會(huì )寫(xiě)php

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 116 次瀏覽 ? 2022-10-10 13:09 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合 干貨:如何給一本書(shū)生成標,當然你得會(huì )寫(xiě)php
  采集自動(dòng)組合,如圖:-image.jpg標題字體:——elements標題:字體-introarticle/%e5%bb%86%e5%88%bb圖書(shū):信息系統書(shū)籍信息轉化而成字體_在線(xiàn)轉換格式_cjk編碼_isonfts字體文件中心圖書(shū),建議選擇mobi文件。
  infographicsforsmartcommunication這是我目前用過(guò)覺(jué)得效果最好的了。
  目前來(lái)看,是createjs這個(gè)生成工具吧,
  
  建議題主上一下thinkphp10.3.6看看,據說(shuō)這個(gè)工具兼容性不錯,圖書(shū)質(zhì)量挺好,
  目前看來(lái),還是createjs圖書(shū)生成工具吧。readlater似乎不能實(shí)現不過(guò),這個(gè)工具的性能和element表現不錯。
  應該不止一種可以對應圖書(shū),我推薦docheimages這個(gè)工具,通過(guò)cms分析了主流的主流電子書(shū)格式,以及國內主流電子書(shū)格式,制作了一些圖書(shū),性能不錯,交互也不錯,你可以去試試。
  
  可以去看我另一個(gè)答案,基本上都是css實(shí)現的。如何給一本書(shū)生成標題圖,
  作為一個(gè)輕量級的項目,可以嘗試目前目前流行的readuter系列工具,希望能幫到你,
  在線(xiàn)圖書(shū)對應應該有2個(gè)方案:制作網(wǎng)站模板,然后導入現成的圖書(shū)信息,使用css的選擇器,采用正則匹配;前端定制css來(lái)實(shí)現網(wǎng)站模板。另外的方案,css語(yǔ)言是用css來(lái)實(shí)現,javascript用javascript,php用php,后端語(yǔ)言用php來(lái)實(shí)現,當然你得會(huì )寫(xiě)php。因為這個(gè)量級的量級,javascript必不可少,除非你沒(méi)有自己的開(kāi)發(fā)工具。
  然后發(fā)布,找個(gè)網(wǎng)站,把你的源代碼存起來(lái),然后購買(mǎi)一個(gè)域名,買(mǎi)的時(shí)候挑大點(diǎn)的,空間也選大點(diǎn)的,一般專(zhuān)業(yè)點(diǎn)的服務(wù)器和空間會(huì )有托管,然后再把你的網(wǎng)站拿出來(lái)上傳到網(wǎng)站根目錄,自己設定訪(fǎng)問(wèn)鏈接就可以了。目前比較成熟的主流的h5也可以做了。如果你還有其他需求,再提出來(lái),我再來(lái)擴展。 查看全部

  采集自動(dòng)組合 干貨:如何給一本書(shū)生成標,當然你得會(huì )寫(xiě)php
  采集自動(dòng)組合,如圖:-image.jpg標題字體:——elements標題:字體-introarticle/%e5%bb%86%e5%88%bb圖書(shū):信息系統書(shū)籍信息轉化而成字體_在線(xiàn)轉換格式_cjk編碼_isonfts字體文件中心圖書(shū),建議選擇mobi文件。
  infographicsforsmartcommunication這是我目前用過(guò)覺(jué)得效果最好的了。
  目前來(lái)看,是createjs這個(gè)生成工具吧,
  
  建議題主上一下thinkphp10.3.6看看,據說(shuō)這個(gè)工具兼容性不錯,圖書(shū)質(zhì)量挺好,
  目前看來(lái),還是createjs圖書(shū)生成工具吧。readlater似乎不能實(shí)現不過(guò),這個(gè)工具的性能和element表現不錯。
  應該不止一種可以對應圖書(shū),我推薦docheimages這個(gè)工具,通過(guò)cms分析了主流的主流電子書(shū)格式,以及國內主流電子書(shū)格式,制作了一些圖書(shū),性能不錯,交互也不錯,你可以去試試。
  
  可以去看我另一個(gè)答案,基本上都是css實(shí)現的。如何給一本書(shū)生成標題圖,
  作為一個(gè)輕量級的項目,可以嘗試目前目前流行的readuter系列工具,希望能幫到你,
  在線(xiàn)圖書(shū)對應應該有2個(gè)方案:制作網(wǎng)站模板,然后導入現成的圖書(shū)信息,使用css的選擇器,采用正則匹配;前端定制css來(lái)實(shí)現網(wǎng)站模板。另外的方案,css語(yǔ)言是用css來(lái)實(shí)現,javascript用javascript,php用php,后端語(yǔ)言用php來(lái)實(shí)現,當然你得會(huì )寫(xiě)php。因為這個(gè)量級的量級,javascript必不可少,除非你沒(méi)有自己的開(kāi)發(fā)工具。
  然后發(fā)布,找個(gè)網(wǎng)站,把你的源代碼存起來(lái),然后購買(mǎi)一個(gè)域名,買(mǎi)的時(shí)候挑大點(diǎn)的,空間也選大點(diǎn)的,一般專(zhuān)業(yè)點(diǎn)的服務(wù)器和空間會(huì )有托管,然后再把你的網(wǎng)站拿出來(lái)上傳到網(wǎng)站根目錄,自己設定訪(fǎng)問(wèn)鏈接就可以了。目前比較成熟的主流的h5也可以做了。如果你還有其他需求,再提出來(lái),我再來(lái)擴展。

終極:在線(xiàn)關(guān)鍵詞組合器,長(cháng)尾關(guān)鍵詞組合工具,標題自動(dòng)生成

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 297 次瀏覽 ? 2022-10-06 13:44 ? 來(lái)自相關(guān)話(huà)題

  終極:在線(xiàn)關(guān)鍵詞組合器,長(cháng)尾關(guān)鍵詞組合工具,標題自動(dòng)生成
  關(guān)鍵詞組合工具,網(wǎng)站在建關(guān)鍵詞的選擇很重要,我們如何選擇網(wǎng)站關(guān)鍵詞是我們站長(cháng)關(guān)心的問(wèn)題。關(guān)鍵詞你選擇的方向錯了,可能你網(wǎng)站已經(jīng)很久沒(méi)有好的SEO排名了,我們可以用關(guān)鍵詞組合工具來(lái)確定我們的網(wǎng)站關(guān)鍵詞并挖掘出大量關(guān)鍵詞對應的長(cháng)尾關(guān)鍵詞,再結合關(guān)鍵詞pan采集、偽原創(chuàng ) , 發(fā)布并自動(dòng)提交到主要搜索引擎確實(shí) 收錄。
  
  關(guān)鍵詞組合工具可以挖掘長(cháng)尾關(guān)鍵詞,可以自由組合關(guān)鍵詞,然后采集偽原創(chuàng )發(fā)布到網(wǎng)站。那么我們首先需要知道什么是長(cháng)尾關(guān)鍵詞。長(cháng)尾 關(guān)鍵詞 是 網(wǎng)站 上的非核心 關(guān)鍵詞 和次要 關(guān)鍵詞,但也驅動(dòng)搜索流量的 關(guān)鍵詞,通常是核心 關(guān)鍵詞 和次要 關(guān)鍵詞 的擴展。長(cháng)尾關(guān)鍵詞有以下特點(diǎn),它們比較長(cháng),通常由2-3個(gè)詞組成,包括疑問(wèn)詞。在一個(gè)內容頁(yè)面中渲染,除了內容頁(yè)面的標題外,還在內容中。搜索量小且不穩定,但搜索用戶(hù)精準。長(cháng)尾關(guān)鍵詞比較大中型網(wǎng)站
  
  操作方法:文章自動(dòng)采集重新組合工具
  批量采集組合文章就是從多個(gè)文章到關(guān)鍵詞采集中提取出采集之后的智能段落,重新組合成一個(gè)新的片段新采集的文章可以自動(dòng)為新采集的文章生成目錄和標題,并提取TDK并發(fā)布到我們的網(wǎng)站對應部分。
  采集組合文章工具操作簡(jiǎn)單,有文章關(guān)鍵詞采集、文章段落重組、文章標題表內容生成和關(guān)鍵詞錨文本、同義詞替換、敏感詞刪除等功能,所有操作都是批量進(jìn)行,只需點(diǎn)擊設置我們的SEO模板,即可重組發(fā)布多篇文章文章。
  采集組合文章工具也有圖像處理的功能。如圖,我們可以發(fā)布我們的采集圖片的本地化圖片鏈接,并通過(guò)自動(dòng)下載到本地給原圖加水印。處理或替換發(fā)布的原創(chuàng )圖像可以達到文章圖像的原創(chuàng )度。
  
  在確定哪些行業(yè)在搜索引擎上最具競爭力時(shí),需要考慮許多因素。首先是行業(yè)的整體知名度。這可以通過(guò)查看與垂直相關(guān)的關(guān)鍵術(shù)語(yǔ)的搜索次數來(lái)衡量。二是行業(yè)內的競爭程度。這可以通過(guò)查看 網(wǎng)站 競爭相同關(guān)鍵術(shù)語(yǔ)的數量和質(zhì)量來(lái)確定。第三是關(guān)鍵詞排名的難度。
  這可以通過(guò)查看 網(wǎng)站 競爭相同 關(guān)鍵詞 的平均搜索引擎排名來(lái)確定。搜索引擎上的熱門(mén)垂直行業(yè)通常更具競爭力。比如我給自己的兩個(gè) 網(wǎng)站 排名時(shí),他們都屬于完全不同的領(lǐng)域,對于競爭不激烈的小眾行業(yè),我們可以很容易地在 關(guān)鍵詞 上排名,如果另一個(gè)是與有競爭力的 網(wǎng)站 競爭。在 SEO 方面,它們都是不同的世界,這就是為什么在進(jìn)行 SEO 之前進(jìn)行適當的市場(chǎng)研究是明智的。
  這是因為對這些主題的信息需求更大,并且有更多的網(wǎng)站競爭相同的關(guān)鍵術(shù)語(yǔ)。行業(yè)內的競爭程度也受關(guān)鍵詞排名難度的影響。如果關(guān)鍵詞很難排名,那么能做到高搜索引擎排名的網(wǎng)站就會(huì )越來(lái)越少,小眾競爭會(huì )更加激烈。
  
  為什么搜索引擎排名一天比一天難,眾所周知,搜索引擎排名一天比一天難。搜索引擎算法不斷發(fā)展,新功能不斷增加,這使得 網(wǎng)站 所有者更難提高他們的排名。
  這使得 網(wǎng)站 需要專(zhuān)注于制作高質(zhì)量、信息豐富的內容,如果他們想在搜索引擎中獲得良好的排名。最近另一個(gè)使搜索引擎排名更難的變化是反向鏈接的重要性增加。搜索引擎現在更關(guān)注 網(wǎng)站 反向鏈接的質(zhì)量而不是數量,這意味著(zhù) 網(wǎng)站 所有者需要專(zhuān)注于從高質(zhì)量的 網(wǎng)站 構建鏈接。
  批處理采集組合文章的分享到此結束。通過(guò)批處理采集組合文章工具,可以將多個(gè)內容相似的文檔組合起來(lái)生成一個(gè)新的原創(chuàng )文章,提高我們網(wǎng)站的速度收錄通過(guò)對SEO友好的關(guān)鍵詞提取、圖片本地化處理、主動(dòng)URL推送等,如果大家喜歡這個(gè)文章,記得點(diǎn)贊訂閱。 查看全部

  終極:在線(xiàn)關(guān)鍵詞組合器,長(cháng)尾關(guān)鍵詞組合工具,標題自動(dòng)生成
  關(guān)鍵詞組合工具,網(wǎng)站在建關(guān)鍵詞的選擇很重要,我們如何選擇網(wǎng)站關(guān)鍵詞是我們站長(cháng)關(guān)心的問(wèn)題。關(guān)鍵詞你選擇的方向錯了,可能你網(wǎng)站已經(jīng)很久沒(méi)有好的SEO排名了,我們可以用關(guān)鍵詞組合工具來(lái)確定我們的網(wǎng)站關(guān)鍵詞并挖掘出大量關(guān)鍵詞對應的長(cháng)尾關(guān)鍵詞,再結合關(guān)鍵詞pan采集、偽原創(chuàng ) , 發(fā)布并自動(dòng)提交到主要搜索引擎確實(shí) 收錄。
  
  關(guān)鍵詞組合工具可以挖掘長(cháng)尾關(guān)鍵詞,可以自由組合關(guān)鍵詞,然后采集偽原創(chuàng )發(fā)布到網(wǎng)站。那么我們首先需要知道什么是長(cháng)尾關(guān)鍵詞。長(cháng)尾 關(guān)鍵詞 是 網(wǎng)站 上的非核心 關(guān)鍵詞 和次要 關(guān)鍵詞,但也驅動(dòng)搜索流量的 關(guān)鍵詞,通常是核心 關(guān)鍵詞 和次要 關(guān)鍵詞 的擴展。長(cháng)尾關(guān)鍵詞有以下特點(diǎn),它們比較長(cháng),通常由2-3個(gè)詞組成,包括疑問(wèn)詞。在一個(gè)內容頁(yè)面中渲染,除了內容頁(yè)面的標題外,還在內容中。搜索量小且不穩定,但搜索用戶(hù)精準。長(cháng)尾關(guān)鍵詞比較大中型網(wǎng)站
  
  操作方法:文章自動(dòng)采集重新組合工具
  批量采集組合文章就是從多個(gè)文章到關(guān)鍵詞采集中提取出采集之后的智能段落,重新組合成一個(gè)新的片段新采集的文章可以自動(dòng)為新采集的文章生成目錄和標題,并提取TDK并發(fā)布到我們的網(wǎng)站對應部分。
  采集組合文章工具操作簡(jiǎn)單,有文章關(guān)鍵詞采集、文章段落重組、文章標題表內容生成和關(guān)鍵詞錨文本、同義詞替換、敏感詞刪除等功能,所有操作都是批量進(jìn)行,只需點(diǎn)擊設置我們的SEO模板,即可重組發(fā)布多篇文章文章。
  采集組合文章工具也有圖像處理的功能。如圖,我們可以發(fā)布我們的采集圖片的本地化圖片鏈接,并通過(guò)自動(dòng)下載到本地給原圖加水印。處理或替換發(fā)布的原創(chuàng )圖像可以達到文章圖像的原創(chuàng )度。
  
  在確定哪些行業(yè)在搜索引擎上最具競爭力時(shí),需要考慮許多因素。首先是行業(yè)的整體知名度。這可以通過(guò)查看與垂直相關(guān)的關(guān)鍵術(shù)語(yǔ)的搜索次數來(lái)衡量。二是行業(yè)內的競爭程度。這可以通過(guò)查看 網(wǎng)站 競爭相同關(guān)鍵術(shù)語(yǔ)的數量和質(zhì)量來(lái)確定。第三是關(guān)鍵詞排名的難度。
  這可以通過(guò)查看 網(wǎng)站 競爭相同 關(guān)鍵詞 的平均搜索引擎排名來(lái)確定。搜索引擎上的熱門(mén)垂直行業(yè)通常更具競爭力。比如我給自己的兩個(gè) 網(wǎng)站 排名時(shí),他們都屬于完全不同的領(lǐng)域,對于競爭不激烈的小眾行業(yè),我們可以很容易地在 關(guān)鍵詞 上排名,如果另一個(gè)是與有競爭力的 網(wǎng)站 競爭。在 SEO 方面,它們都是不同的世界,這就是為什么在進(jìn)行 SEO 之前進(jìn)行適當的市場(chǎng)研究是明智的。
  這是因為對這些主題的信息需求更大,并且有更多的網(wǎng)站競爭相同的關(guān)鍵術(shù)語(yǔ)。行業(yè)內的競爭程度也受關(guān)鍵詞排名難度的影響。如果關(guān)鍵詞很難排名,那么能做到高搜索引擎排名的網(wǎng)站就會(huì )越來(lái)越少,小眾競爭會(huì )更加激烈。
  
  為什么搜索引擎排名一天比一天難,眾所周知,搜索引擎排名一天比一天難。搜索引擎算法不斷發(fā)展,新功能不斷增加,這使得 網(wǎng)站 所有者更難提高他們的排名。
  這使得 網(wǎng)站 需要專(zhuān)注于制作高質(zhì)量、信息豐富的內容,如果他們想在搜索引擎中獲得良好的排名。最近另一個(gè)使搜索引擎排名更難的變化是反向鏈接的重要性增加。搜索引擎現在更關(guān)注 網(wǎng)站 反向鏈接的質(zhì)量而不是數量,這意味著(zhù) 網(wǎng)站 所有者需要專(zhuān)注于從高質(zhì)量的 網(wǎng)站 構建鏈接。
  批處理采集組合文章的分享到此結束。通過(guò)批處理采集組合文章工具,可以將多個(gè)內容相似的文檔組合起來(lái)生成一個(gè)新的原創(chuàng )文章,提高我們網(wǎng)站的速度收錄通過(guò)對SEO友好的關(guān)鍵詞提取、圖片本地化處理、主動(dòng)URL推送等,如果大家喜歡這個(gè)文章,記得點(diǎn)贊訂閱。

免費分享:教你zblog采集如何自動(dòng)zblog采集和zblog發(fā)布(圖文教程)

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 284 次瀏覽 ? 2022-10-06 13:43 ? 來(lái)自相關(guān)話(huà)題

  免費分享:教你zblog采集如何自動(dòng)zblog采集和zblog發(fā)布(圖文教程)
  Zblog是基于Zblog開(kāi)發(fā)團隊開(kāi)發(fā)的Asp和PHP平臺的一個(gè)小而強大的開(kāi)源程序,但是Zblog在插件市場(chǎng)上采集插件,這些插件都不能玩,要么沒(méi)有SEO文章內容處理,要么是單一的功能。對于SEO網(wǎng)站管理員來(lái)說(shuō),很少有Zblog采集。
  人們知道Zblog采集界面不是
  熟悉Zblog采集的人做,很多人采取模擬登錄的方法發(fā)布文章,有很多人直接操作數據庫發(fā)布文章,但這些或多或少都是由各種問(wèn)題引起的,發(fā)布速度慢,文章內容沒(méi)有嚴格過(guò)濾,導致安全問(wèn)題,無(wú)法發(fā)送標簽,無(wú)法自動(dòng)創(chuàng )建分類(lèi)等。但是,使用Zblog采集發(fā)布速度快,文章內容經(jīng)過(guò)嚴格過(guò)濾,沒(méi)有安全問(wèn)題,可以發(fā)送TAG并支持自動(dòng)創(chuàng )建分類(lèi)。
  Zblog采集幫助站節省了大量的處理人力,插件不僅支持文章采集,還支持采集中的注釋文章,以及其他插件(非采集)的數據文章。
  Zblog采集還支持帝國cms、益友、Zblog采集、德cms、WordPress、PBoot、蘋(píng)果cms、迅瑞cms、PHP cms、蘋(píng)果cms、人人cms、美圖cms、云cms、小旋風(fēng)站群、THINKCMF、建站ABC、萬(wàn)科cms、易cms、海cms、飛飛cms、本地發(fā)布、搜外等主要cms,可同時(shí)分批管理和發(fā)布。
  Z博客采集支持任何PHP版本的Z博客采集支持任何版本
  的 MysqlZ博客采集和 Zb 博客采集支持任何版本的 Nginx。
  
  Zblog 采集支持內容替換,Zblog 采集支持 HTML 過(guò)濾,Zblog 采集支持常規提取,Zblog 采集支持字符攔截,Zblog 采集支持內容附錄,Zblog 采集支持
  空內容默認值,Zblog 采集支持關(guān)鍵詞分詞。Zblog 采集支持同義詞替換,Zblog 采集支持關(guān)鍵詞內部鏈接。
  茲博采集支持采集任何版本的茲博。Zblog采集作者宣言永遠免費。
  Zblog 采集不會(huì )由于版本不匹配或其他原因(例如采集不支持的服務(wù)器環(huán)境)而無(wú)法使用。
  Zblog采集配置簡(jiǎn)單,Zblog采集不需要花很多時(shí)間學(xué)習軟件操作,一分鐘就可以開(kāi)始使用而無(wú)需配置采集規則,輸入關(guān)鍵詞就可以采集。
  Zblog 采集可用于字段內容再處理,Zblog 采集也可以是從內容頁(yè)面派生的多級頁(yè)面組合。
  Zblog采集有很好的字段使用方法,對于關(guān)鍵詞Zblog采集可以自動(dòng)分割Zblog采集同義詞轉換關(guān)鍵詞內部鏈過(guò)濾查看(編輯)Zblog采集可以查看采集數據,Zblog采集支持php擴展。Z博客采集可以查看擴展
  
  Zblog 采集提供一站式解決方案,網(wǎng)站文章無(wú)需人工干預,設置任務(wù)以自動(dòng)執行采集發(fā)布。
  Zblog采集可以實(shí)現上百種不同的cms網(wǎng)站可以實(shí)現統一管理。一個(gè)人維護數百網(wǎng)站文章更新不是問(wèn)題。
  Zblog采集第三方采集軟件非常強大,只要你輸入關(guān)鍵詞就可以采集,可以通過(guò)軟件采集自動(dòng)采集和發(fā)布,為了讓搜索引擎文章你的網(wǎng)站收錄,我們還可以設置圖片的自動(dòng)下載和替換鏈接,圖像存儲方式支持:阿里云OSS、七牛對象存儲、騰訊云、優(yōu)派云等。
  {作為$articles的$dayHotArticle}
  {$articles.標題}
  {/foreach}
  Zblog采集還配備了自動(dòng)內部鏈接,內容或標題,在插入某些內容以形成“偽原創(chuàng )”之前和之后。Zblog采集還具有監視功能,可讓您直接通過(guò)軟件查看文章采集版本。
  今天的Zblog采集在這里分享,接下來(lái)要分享更多SEO相關(guān)知識,希望在SEO網(wǎng)站優(yōu)化的這條路上能幫到你,喜歡,不妨點(diǎn)擊三個(gè)鏈接。
  簡(jiǎn)單教程:帝國cms采集圖文教程(下)
  2/3/2018 01:10:28
  iProber-PHP探針主要功能: 1、服務(wù)器環(huán)境檢測:CPU、在線(xiàn)時(shí)間、內存使用情況、系統平均負載檢測(支持LINUX、FreeBSD系統,需系統支持)、操作系統、服務(wù)器域名、IP地址、解釋引擎 2. PHP 基本特性檢測:版本、運行模式、安全模式、Zend 編譯運行及通用參數 3. PHP 組件支持檢測:MYSQL、GD、XML、SESSION、SOCKET 等組件支持 4. 服務(wù)器性能檢測:
  Empirecms采集圖文教程(第二部分)
  15/3/2012 10:18:00
  前兩講我們介紹了帝國cms采集的基本流程和帝國cms如何采集內容分頁(yè)。上一講主要介紹了帝國cms采集過(guò)濾替換,以及一些技巧。
  PHP采集相關(guān)教程之一的CURL函數庫
  2018 年 4 月 3 日 01:14:49
  總結:CURL函數庫,PHP采集相關(guān)教程之一
  
  帝國cms采集圖文教程(中)
  2012 年 12 月 3 日 14:07:00
  那么讓我們來(lái)談?wù)刢ms如何采集Empire中的內容分頁(yè)。在采集的過(guò)程中,很多同學(xué)在列表頁(yè)和內容頁(yè)上都可以很好地設置正則化,但是在內容分頁(yè)正則化上經(jīng)常失敗,主要是因為對內容分頁(yè)正則化不了解。Empire中的內容分頁(yè)有兩種形式:(1)全列表式(2)上下頁(yè)面導航式,但是這兩種內容分頁(yè)形式有什么區別,采集內容應該用哪個(gè)分頁(yè),官方說(shuō)比較模糊,有同學(xué)覺(jué)得頭大了,好吧。
  Empirecms采集功能設置圖文教程(上)
  2012 年 8 月 3 日 14:34:00
  Empirecms 是一個(gè)我們使用大量 PHP 的網(wǎng)站構建系統。在建網(wǎng)站的過(guò)程中,如果沒(méi)有任何信息來(lái)源,只能手工復制粘貼,費時(shí)費力,所以我們不得不使用Empire。cms自己的采集函數完成信息錄入。為了深入了解帝國cms采集的功能,我們以“新浪新聞”欄目為例進(jìn)行實(shí)戰采集。
  網(wǎng)站優(yōu)化指南:標簽優(yōu)化技巧分析
  19/4/2010 10:51:00
  如今,所有主要的cms 和博客系統都添加了標簽。tag標簽的意思是將相關(guān)的關(guān)鍵詞聚合在一起?,F在網(wǎng)站管理員使用 Tag 標簽。標簽無(wú)非就是兩點(diǎn) 1:增強搜索引擎地收錄。2:有利于用戶(hù)體驗。
  
  賬號中PUSH域名中文圖文教程
  2012 年 9 月 7 日 14:25:00
  平時(shí)我們可能會(huì )使用更多的godaddy域名,不能只局限于這個(gè)注冊商。還是有很多站長(cháng)喜歡用namecheap等注冊商來(lái)注冊域名。今天早上有網(wǎng)友要求賣(mài)一個(gè)域名,但是他不能推送這個(gè)域名,于是我截圖并寫(xiě)下了這個(gè)域名網(wǎng)站的推送教程方法。如果其他朋友需要,也可以參考。
  SEO的兩個(gè)死胡同:采集和群發(fā)
  2007 年 3 月 7 日 10:34:00
  一般來(lái)說(shuō),網(wǎng)站 SEO 成功的主要標準是內容和鏈接,不幸的是,一些 SEO 與 采集 和大量發(fā)布相關(guān)聯(lián)。是否可以通過(guò)采集器簡(jiǎn)單地采集和積累內容,通過(guò)群發(fā)者任意添加外部鏈接來(lái)玩搜索引擎?事實(shí)上,這是SEO的兩個(gè)死胡同。據我所知,網(wǎng)站采集主要有兩種方式,一種是
  云服務(wù)器php中short_open_tag短標簽的使用
  2/2/202117:28:54
  php配置文件(php.ini)中有一個(gè)short_open_tag值,打開(kāi)后可以使用php段標簽:()。同時(shí),只有開(kāi)啟這個(gè)才能使用 查看全部

  免費分享:教你zblog采集如何自動(dòng)zblog采集和zblog發(fā)布(圖文教程)
  Zblog是基于Zblog開(kāi)發(fā)團隊開(kāi)發(fā)的Asp和PHP平臺的一個(gè)小而強大的開(kāi)源程序,但是Zblog在插件市場(chǎng)上采集插件,這些插件都不能玩,要么沒(méi)有SEO文章內容處理,要么是單一的功能。對于SEO網(wǎng)站管理員來(lái)說(shuō),很少有Zblog采集。
  人們知道Zblog采集界面不是
  熟悉Zblog采集的人做,很多人采取模擬登錄的方法發(fā)布文章,有很多人直接操作數據庫發(fā)布文章,但這些或多或少都是由各種問(wèn)題引起的,發(fā)布速度慢,文章內容沒(méi)有嚴格過(guò)濾,導致安全問(wèn)題,無(wú)法發(fā)送標簽,無(wú)法自動(dòng)創(chuàng )建分類(lèi)等。但是,使用Zblog采集發(fā)布速度快,文章內容經(jīng)過(guò)嚴格過(guò)濾,沒(méi)有安全問(wèn)題,可以發(fā)送TAG并支持自動(dòng)創(chuàng )建分類(lèi)。
  Zblog采集幫助站節省了大量的處理人力,插件不僅支持文章采集,還支持采集中的注釋文章,以及其他插件(非采集)的數據文章。
  Zblog采集還支持帝國cms、益友、Zblog采集、德cms、WordPress、PBoot、蘋(píng)果cms、迅瑞cms、PHP cms、蘋(píng)果cms、人人cms、美圖cms、云cms、小旋風(fēng)站群、THINKCMF、建站ABC、萬(wàn)科cms、易cms、海cms、飛飛cms、本地發(fā)布、搜外等主要cms,可同時(shí)分批管理和發(fā)布。
  Z博客采集支持任何PHP版本的Z博客采集支持任何版本
  的 MysqlZ博客采集和 Zb 博客采集支持任何版本的 Nginx。
  
  Zblog 采集支持內容替換,Zblog 采集支持 HTML 過(guò)濾,Zblog 采集支持常規提取,Zblog 采集支持字符攔截,Zblog 采集支持內容附錄,Zblog 采集支持
  空內容默認值,Zblog 采集支持關(guān)鍵詞分詞。Zblog 采集支持同義詞替換,Zblog 采集支持關(guān)鍵詞內部鏈接。
  茲博采集支持采集任何版本的茲博。Zblog采集作者宣言永遠免費。
  Zblog 采集不會(huì )由于版本不匹配或其他原因(例如采集不支持的服務(wù)器環(huán)境)而無(wú)法使用。
  Zblog采集配置簡(jiǎn)單,Zblog采集不需要花很多時(shí)間學(xué)習軟件操作,一分鐘就可以開(kāi)始使用而無(wú)需配置采集規則,輸入關(guān)鍵詞就可以采集。
  Zblog 采集可用于字段內容再處理,Zblog 采集也可以是從內容頁(yè)面派生的多級頁(yè)面組合。
  Zblog采集有很好的字段使用方法,對于關(guān)鍵詞Zblog采集可以自動(dòng)分割Zblog采集同義詞轉換關(guān)鍵詞內部鏈過(guò)濾查看(編輯)Zblog采集可以查看采集數據,Zblog采集支持php擴展。Z博客采集可以查看擴展
  
  Zblog 采集提供一站式解決方案,網(wǎng)站文章無(wú)需人工干預,設置任務(wù)以自動(dòng)執行采集發(fā)布。
  Zblog采集可以實(shí)現上百種不同的cms網(wǎng)站可以實(shí)現統一管理。一個(gè)人維護數百網(wǎng)站文章更新不是問(wèn)題。
  Zblog采集第三方采集軟件非常強大,只要你輸入關(guān)鍵詞就可以采集,可以通過(guò)軟件采集自動(dòng)采集和發(fā)布,為了讓搜索引擎文章你的網(wǎng)站收錄,我們還可以設置圖片的自動(dòng)下載和替換鏈接,圖像存儲方式支持:阿里云OSS、七牛對象存儲、騰訊云、優(yōu)派云等。
  {作為$articles的$dayHotArticle}
  {$articles.標題}
  {/foreach}
  Zblog采集還配備了自動(dòng)內部鏈接,內容或標題,在插入某些內容以形成“偽原創(chuàng )”之前和之后。Zblog采集還具有監視功能,可讓您直接通過(guò)軟件查看文章采集版本。
  今天的Zblog采集在這里分享,接下來(lái)要分享更多SEO相關(guān)知識,希望在SEO網(wǎng)站優(yōu)化的這條路上能幫到你,喜歡,不妨點(diǎn)擊三個(gè)鏈接。
  簡(jiǎn)單教程:帝國cms采集圖文教程(下)
  2/3/2018 01:10:28
  iProber-PHP探針主要功能: 1、服務(wù)器環(huán)境檢測:CPU、在線(xiàn)時(shí)間、內存使用情況、系統平均負載檢測(支持LINUX、FreeBSD系統,需系統支持)、操作系統、服務(wù)器域名、IP地址、解釋引擎 2. PHP 基本特性檢測:版本、運行模式、安全模式、Zend 編譯運行及通用參數 3. PHP 組件支持檢測:MYSQL、GD、XML、SESSION、SOCKET 等組件支持 4. 服務(wù)器性能檢測:
  Empirecms采集圖文教程(第二部分)
  15/3/2012 10:18:00
  前兩講我們介紹了帝國cms采集的基本流程和帝國cms如何采集內容分頁(yè)。上一講主要介紹了帝國cms采集過(guò)濾替換,以及一些技巧。
  PHP采集相關(guān)教程之一的CURL函數庫
  2018 年 4 月 3 日 01:14:49
  總結:CURL函數庫,PHP采集相關(guān)教程之一
  
  帝國cms采集圖文教程(中)
  2012 年 12 月 3 日 14:07:00
  那么讓我們來(lái)談?wù)刢ms如何采集Empire中的內容分頁(yè)。在采集的過(guò)程中,很多同學(xué)在列表頁(yè)和內容頁(yè)上都可以很好地設置正則化,但是在內容分頁(yè)正則化上經(jīng)常失敗,主要是因為對內容分頁(yè)正則化不了解。Empire中的內容分頁(yè)有兩種形式:(1)全列表式(2)上下頁(yè)面導航式,但是這兩種內容分頁(yè)形式有什么區別,采集內容應該用哪個(gè)分頁(yè),官方說(shuō)比較模糊,有同學(xué)覺(jué)得頭大了,好吧。
  Empirecms采集功能設置圖文教程(上)
  2012 年 8 月 3 日 14:34:00
  Empirecms 是一個(gè)我們使用大量 PHP 的網(wǎng)站構建系統。在建網(wǎng)站的過(guò)程中,如果沒(méi)有任何信息來(lái)源,只能手工復制粘貼,費時(shí)費力,所以我們不得不使用Empire。cms自己的采集函數完成信息錄入。為了深入了解帝國cms采集的功能,我們以“新浪新聞”欄目為例進(jìn)行實(shí)戰采集。
  網(wǎng)站優(yōu)化指南:標簽優(yōu)化技巧分析
  19/4/2010 10:51:00
  如今,所有主要的cms 和博客系統都添加了標簽。tag標簽的意思是將相關(guān)的關(guān)鍵詞聚合在一起?,F在網(wǎng)站管理員使用 Tag 標簽。標簽無(wú)非就是兩點(diǎn) 1:增強搜索引擎地收錄。2:有利于用戶(hù)體驗。
  
  賬號中PUSH域名中文圖文教程
  2012 年 9 月 7 日 14:25:00
  平時(shí)我們可能會(huì )使用更多的godaddy域名,不能只局限于這個(gè)注冊商。還是有很多站長(cháng)喜歡用namecheap等注冊商來(lái)注冊域名。今天早上有網(wǎng)友要求賣(mài)一個(gè)域名,但是他不能推送這個(gè)域名,于是我截圖并寫(xiě)下了這個(gè)域名網(wǎng)站的推送教程方法。如果其他朋友需要,也可以參考。
  SEO的兩個(gè)死胡同:采集和群發(fā)
  2007 年 3 月 7 日 10:34:00
  一般來(lái)說(shuō),網(wǎng)站 SEO 成功的主要標準是內容和鏈接,不幸的是,一些 SEO 與 采集 和大量發(fā)布相關(guān)聯(lián)。是否可以通過(guò)采集器簡(jiǎn)單地采集和積累內容,通過(guò)群發(fā)者任意添加外部鏈接來(lái)玩搜索引擎?事實(shí)上,這是SEO的兩個(gè)死胡同。據我所知,網(wǎng)站采集主要有兩種方式,一種是
  云服務(wù)器php中short_open_tag短標簽的使用
  2/2/202117:28:54
  php配置文件(php.ini)中有一個(gè)short_open_tag值,打開(kāi)后可以使用php段標簽:()。同時(shí),只有開(kāi)啟這個(gè)才能使用

曝光:采集自動(dòng)組合套路,新浪微博可以抓取哪些社交媒體的數據?

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 115 次瀏覽 ? 2022-09-30 23:07 ? 來(lái)自相關(guān)話(huà)題

  曝光:采集自動(dòng)組合套路,新浪微博可以抓取哪些社交媒體的數據?
  采集自動(dòng)組合套路:套路一:1.個(gè)人昵稱(chēng)后面標注尾號前四位2.通過(guò)號段名自動(dòng)匹配出原來(lái)的個(gè)人昵稱(chēng),自動(dòng)查詢(xún)3.查詢(xún)結果和個(gè)人昵稱(chēng)對不上,選擇人工匹配,輸入昵稱(chēng)4.選擇剛才選擇的人工匹配的人工昵稱(chēng)5.姓名的后面是生日,選擇輸入,點(diǎn)確定。套路二:個(gè)人昵稱(chēng)后面標注01是常見(jiàn)的桃色大號,一般會(huì )同時(shí)匹配兩個(gè)桃色微博。
  1,加10,點(diǎn)擊開(kāi)始匹配2,點(diǎn)擊發(fā)送,發(fā)送后重新查詢(xún)3,發(fā)送,重新匹配4,發(fā)送5,重新匹配結束套路三:通過(guò)首字母匹配可以查詢(xún)到高級匹配或更多字母的用戶(hù),自動(dòng)查詢(xún)具體可參考@泥水姬。
  新浪微博可以抓取哪些社交媒體的數據?-劉大鼎的回答-知乎,抓取別人首頁(yè)的微博,一般根據當前發(fā)布的內容去匹配。另外,需要考慮的就是你的首頁(yè)內容是否能進(jìn)入高級選項,這個(gè)也是和首頁(yè)評論區等相關(guān)聯(lián)的。
  
  去掉用戶(hù)頭像設置,不用標簽,進(jìn)不去就是假的。
  自己實(shí)驗了一下。
  在微博出現之前,知乎并沒(méi)有算法抓取功能,
  
  1、黑白名單(一般有不少人寫(xiě)過(guò)教程)
  2、郵件當然也有郵件過(guò)濾功能
  3、自己寫(xiě)程序數據抓取方法有以下幾種:要么花錢(qián)要么自己寫(xiě)要么加第三方接口方法一:花錢(qián)最通用的方法,而且要花錢(qián)去獲取,不花錢(qián)也沒(méi)什么意思,可能花的錢(qián)比直接抓取要貴。其實(shí)最簡(jiǎn)單的方法是去抓取微博用戶(hù)的主頁(yè)信息,直接從主頁(yè)地址進(jìn)去就可以抓取到了。第三方接口:大貓搜第三方接口比如說(shuō)大貓搜、大貓愛(ài)等等,一方面能抓取微博評論區和發(fā)布時(shí)間及個(gè)人主頁(yè)信息,另一方面也能抓取用戶(hù)頭像地址等重要信息,實(shí)用性很高。
  至于要花多少錢(qián)可以自己慢慢琢磨。方法二:自己寫(xiě)程序自己寫(xiě)一套個(gè)人介紹追蹤程序,從主頁(yè)抓取用戶(hù)昵稱(chēng)和標簽信息,達到追蹤的效果。另外,如果你要自己做抓取,微博的數據網(wǎng)上也可以抓取,具體怎么抓取的可以具體看我的專(zhuān)欄文章!關(guān)注我的專(zhuān)欄獲取更多爬蟲(chóng)和爬蟲(chóng)學(xué)習內容!。 查看全部

  曝光:采集自動(dòng)組合套路,新浪微博可以抓取哪些社交媒體的數據?
  采集自動(dòng)組合套路:套路一:1.個(gè)人昵稱(chēng)后面標注尾號前四位2.通過(guò)號段名自動(dòng)匹配出原來(lái)的個(gè)人昵稱(chēng),自動(dòng)查詢(xún)3.查詢(xún)結果和個(gè)人昵稱(chēng)對不上,選擇人工匹配,輸入昵稱(chēng)4.選擇剛才選擇的人工匹配的人工昵稱(chēng)5.姓名的后面是生日,選擇輸入,點(diǎn)確定。套路二:個(gè)人昵稱(chēng)后面標注01是常見(jiàn)的桃色大號,一般會(huì )同時(shí)匹配兩個(gè)桃色微博。
  1,加10,點(diǎn)擊開(kāi)始匹配2,點(diǎn)擊發(fā)送,發(fā)送后重新查詢(xún)3,發(fā)送,重新匹配4,發(fā)送5,重新匹配結束套路三:通過(guò)首字母匹配可以查詢(xún)到高級匹配或更多字母的用戶(hù),自動(dòng)查詢(xún)具體可參考@泥水姬。
  新浪微博可以抓取哪些社交媒體的數據?-劉大鼎的回答-知乎,抓取別人首頁(yè)的微博,一般根據當前發(fā)布的內容去匹配。另外,需要考慮的就是你的首頁(yè)內容是否能進(jìn)入高級選項,這個(gè)也是和首頁(yè)評論區等相關(guān)聯(lián)的。
  
  去掉用戶(hù)頭像設置,不用標簽,進(jìn)不去就是假的。
  自己實(shí)驗了一下。
  在微博出現之前,知乎并沒(méi)有算法抓取功能,
  
  1、黑白名單(一般有不少人寫(xiě)過(guò)教程)
  2、郵件當然也有郵件過(guò)濾功能
  3、自己寫(xiě)程序數據抓取方法有以下幾種:要么花錢(qián)要么自己寫(xiě)要么加第三方接口方法一:花錢(qián)最通用的方法,而且要花錢(qián)去獲取,不花錢(qián)也沒(méi)什么意思,可能花的錢(qián)比直接抓取要貴。其實(shí)最簡(jiǎn)單的方法是去抓取微博用戶(hù)的主頁(yè)信息,直接從主頁(yè)地址進(jìn)去就可以抓取到了。第三方接口:大貓搜第三方接口比如說(shuō)大貓搜、大貓愛(ài)等等,一方面能抓取微博評論區和發(fā)布時(shí)間及個(gè)人主頁(yè)信息,另一方面也能抓取用戶(hù)頭像地址等重要信息,實(shí)用性很高。
  至于要花多少錢(qián)可以自己慢慢琢磨。方法二:自己寫(xiě)程序自己寫(xiě)一套個(gè)人介紹追蹤程序,從主頁(yè)抓取用戶(hù)昵稱(chēng)和標簽信息,達到追蹤的效果。另外,如果你要自己做抓取,微博的數據網(wǎng)上也可以抓取,具體怎么抓取的可以具體看我的專(zhuān)欄文章!關(guān)注我的專(zhuān)欄獲取更多爬蟲(chóng)和爬蟲(chóng)學(xué)習內容!。

優(yōu)化的解決方案:語(yǔ)義Web服務(wù)自動(dòng)組合及驗證的研究

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 65 次瀏覽 ? 2022-09-30 17:40 ? 來(lái)自相關(guān)話(huà)題

  優(yōu)化的解決方案:語(yǔ)義Web服務(wù)自動(dòng)組合及驗證的研究
  
  摘要: 面向服務(wù)架構(SOA)和面向服務(wù)計算(SOC)的出現為分布式應用和企業(yè)信息系統的集成提供了靈活的解決方案。由于單個(gè)Web服務(wù)的功能有限,如何將多個(gè)Web服務(wù)組合起來(lái)共同完成一項任務(wù)成為了工業(yè)界和學(xué)術(shù)界關(guān)注的焦點(diǎn)。同時(shí),通過(guò)Web服務(wù)技術(shù)和語(yǔ)義Web技術(shù)的結合,產(chǎn)生了多種語(yǔ)義Web服務(wù)描述框架,使得實(shí)現Web服務(wù)的自動(dòng)發(fā)現、組合、驗證和執行成為可能。結合國家863項目“面向解決方案的服務(wù)架構與支撐環(huán)境”,本文深入研究了語(yǔ)義Web服務(wù)組合的關(guān)鍵技術(shù),包括Web服務(wù)發(fā)現、Web服務(wù)自動(dòng)組合和Web服務(wù)過(guò)程驗證方法。成果包括以下幾個(gè)方面:(1)研究Web服務(wù)之間的關(guān)系,完善服務(wù)網(wǎng)絡(luò )的概念。結合語(yǔ)義Web服務(wù)相關(guān)技術(shù),從服務(wù)功能、抽象服務(wù)和具體服務(wù)的角度出發(fā)根據Web服務(wù)的概念,根據參數、操作、具體服務(wù)和抽象服務(wù)四個(gè)層次,定義Web服務(wù)不同粒度之間的潛在關(guān)系,并在此基礎上提出概念框架和體系給出了服務(wù)網(wǎng)絡(luò )的結構。(< @2)研究了基于信息的語(yǔ)義Web服務(wù)的組合,提出了一種基于GraphPlan的啟發(fā)式服務(wù)組合算法。該算法根據信息化Web服務(wù)的特點(diǎn),將服務(wù)組合分為規劃圖構建和組合方案搜索兩個(gè)模塊。,可以在多項式時(shí)間內判斷服務(wù)組合的可滿(mǎn)足性。在規劃圖的構建中充分考慮了服務(wù)網(wǎng)絡(luò )中豐富的關(guān)系信息,在組合方案搜索模塊中采用了啟發(fā)式服務(wù)選擇策略。(3)研究了收錄信息和狀態(tài)變化的Web服務(wù)的混合服務(wù)組合問(wèn)題,設計并實(shí)現了一個(gè)基于抽象模板的自動(dòng)服務(wù)組合系統。系統面向服務(wù)網(wǎng)絡(luò )中的抽象服務(wù)層。主要工作是根據用戶(hù)的功能需求,充分復用以往解決用戶(hù)需求問(wèn)題的經(jīng)驗,配合模板預處理和啟發(fā)式自動(dòng)調整算法,完成抽象服務(wù)組合流程的構建。實(shí)驗表明,在外部環(huán)境相同的情況下,系統可以在較短的時(shí)間內實(shí)現服務(wù)的自動(dòng)組合,并且隨著(zhù)服務(wù)數量的增加,可以表現出更好的適應性。(4)研究了語(yǔ)義Web服務(wù)組合的驗證,提出了一種基于Petri網(wǎng)的服務(wù)組合一致性驗證方法。該方法可以在服務(wù)部署前檢測出潛在的組合邏輯不一致,從而提高服務(wù)組合。魯棒性和用戶(hù)滿(mǎn)意度。并通過(guò)一個(gè)實(shí)際案例驗證了該方法的正確性和有效性。
  
  整套解決方案:在線(xiàn)閱讀文檔系統開(kāi)發(fā)功能特性
  特征:
  多用戶(hù)、文檔轉換、在線(xiàn)閱讀
  操作環(huán)境:
  操作系統:Linux/Unix 或 Windows
  
  圖書(shū)館系統基于文獻系統知識,搭建平臺和領(lǐng)域,打造流量、用戶(hù)、支付、變現的閉環(huán),助您更好地構建圖書(shū)館系統。
  網(wǎng)站如果在搭建過(guò)程中遇到什么困難,可以留言或者叫我v:kjwenlc
  圖書(shū)館系統
  圖書(shū)館系統開(kāi)發(fā)特點(diǎn)介紹
  
  1、搜索功能
  庫 網(wǎng)站 通常在主頁(yè)頂部有一個(gè)搜索框。用戶(hù)可以通過(guò)搜索框輸入自己要搜索的關(guān)鍵詞,而不是按類(lèi)別搜索。
  2、今日推薦,熱門(mén)文檔
  圖書(shū)館首頁(yè)一般為用戶(hù)提供今日推薦和熱門(mén)文獻。今天的推薦顯示用戶(hù)查看更多的文檔,而熱門(mén)文檔是下載更多的文檔。 查看全部

  優(yōu)化的解決方案:語(yǔ)義Web服務(wù)自動(dòng)組合及驗證的研究
  
  摘要: 面向服務(wù)架構(SOA)和面向服務(wù)計算(SOC)的出現為分布式應用和企業(yè)信息系統的集成提供了靈活的解決方案。由于單個(gè)Web服務(wù)的功能有限,如何將多個(gè)Web服務(wù)組合起來(lái)共同完成一項任務(wù)成為了工業(yè)界和學(xué)術(shù)界關(guān)注的焦點(diǎn)。同時(shí),通過(guò)Web服務(wù)技術(shù)和語(yǔ)義Web技術(shù)的結合,產(chǎn)生了多種語(yǔ)義Web服務(wù)描述框架,使得實(shí)現Web服務(wù)的自動(dòng)發(fā)現、組合、驗證和執行成為可能。結合國家863項目“面向解決方案的服務(wù)架構與支撐環(huán)境”,本文深入研究了語(yǔ)義Web服務(wù)組合的關(guān)鍵技術(shù),包括Web服務(wù)發(fā)現、Web服務(wù)自動(dòng)組合和Web服務(wù)過(guò)程驗證方法。成果包括以下幾個(gè)方面:(1)研究Web服務(wù)之間的關(guān)系,完善服務(wù)網(wǎng)絡(luò )的概念。結合語(yǔ)義Web服務(wù)相關(guān)技術(shù),從服務(wù)功能、抽象服務(wù)和具體服務(wù)的角度出發(fā)根據Web服務(wù)的概念,根據參數、操作、具體服務(wù)和抽象服務(wù)四個(gè)層次,定義Web服務(wù)不同粒度之間的潛在關(guān)系,并在此基礎上提出概念框架和體系給出了服務(wù)網(wǎng)絡(luò )的結構。(< @2)研究了基于信息的語(yǔ)義Web服務(wù)的組合,提出了一種基于GraphPlan的啟發(fā)式服務(wù)組合算法。該算法根據信息化Web服務(wù)的特點(diǎn),將服務(wù)組合分為規劃圖構建和組合方案搜索兩個(gè)模塊。,可以在多項式時(shí)間內判斷服務(wù)組合的可滿(mǎn)足性。在規劃圖的構建中充分考慮了服務(wù)網(wǎng)絡(luò )中豐富的關(guān)系信息,在組合方案搜索模塊中采用了啟發(fā)式服務(wù)選擇策略。(3)研究了收錄信息和狀態(tài)變化的Web服務(wù)的混合服務(wù)組合問(wèn)題,設計并實(shí)現了一個(gè)基于抽象模板的自動(dòng)服務(wù)組合系統。系統面向服務(wù)網(wǎng)絡(luò )中的抽象服務(wù)層。主要工作是根據用戶(hù)的功能需求,充分復用以往解決用戶(hù)需求問(wèn)題的經(jīng)驗,配合模板預處理和啟發(fā)式自動(dòng)調整算法,完成抽象服務(wù)組合流程的構建。實(shí)驗表明,在外部環(huán)境相同的情況下,系統可以在較短的時(shí)間內實(shí)現服務(wù)的自動(dòng)組合,并且隨著(zhù)服務(wù)數量的增加,可以表現出更好的適應性。(4)研究了語(yǔ)義Web服務(wù)組合的驗證,提出了一種基于Petri網(wǎng)的服務(wù)組合一致性驗證方法。該方法可以在服務(wù)部署前檢測出潛在的組合邏輯不一致,從而提高服務(wù)組合。魯棒性和用戶(hù)滿(mǎn)意度。并通過(guò)一個(gè)實(shí)際案例驗證了該方法的正確性和有效性。
  
  整套解決方案:在線(xiàn)閱讀文檔系統開(kāi)發(fā)功能特性
  特征:
  多用戶(hù)、文檔轉換、在線(xiàn)閱讀
  操作環(huán)境:
  操作系統:Linux/Unix 或 Windows
  
  圖書(shū)館系統基于文獻系統知識,搭建平臺和領(lǐng)域,打造流量、用戶(hù)、支付、變現的閉環(huán),助您更好地構建圖書(shū)館系統。
  網(wǎng)站如果在搭建過(guò)程中遇到什么困難,可以留言或者叫我v:kjwenlc
  圖書(shū)館系統
  圖書(shū)館系統開(kāi)發(fā)特點(diǎn)介紹
  
  1、搜索功能
  庫 網(wǎng)站 通常在主頁(yè)頂部有一個(gè)搜索框。用戶(hù)可以通過(guò)搜索框輸入自己要搜索的關(guān)鍵詞,而不是按類(lèi)別搜索。
  2、今日推薦,熱門(mén)文檔
  圖書(shū)館首頁(yè)一般為用戶(hù)提供今日推薦和熱門(mén)文獻。今天的推薦顯示用戶(hù)查看更多的文檔,而熱門(mén)文檔是下載更多的文檔。

最新版本:淘寶前端采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖截圖

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 72 次瀏覽 ? 2022-09-23 19:05 ? 來(lái)自相關(guān)話(huà)題

  最新版本:淘寶前端采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖截圖
  采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖參考:(軟件)使用的mfc腳本:flex-messagesfrommessages:formmessages可用的實(shí)現:github-calendar/main:subject_messages_reader,events-messages,processor:packageofsubjectmessages可用的方案:subject-reader:messagesreader,renderer:github-calendar/messages:messagesreader,renderer:github-tiberyu/performances:messagesstreamingstreaminputdeviceapidevelopmenthadoop需要搭建運行平臺github-mango/mobile:aquickpythonframeworktoreadonmobileexcess-lifedatabylightningorlightingintojavaandtaobao。
  
  淘寶前端的一個(gè)實(shí)現是基于html5開(kāi)發(fā)的,前端可以這樣做:ajax可以讀取json數據來(lái)寫(xiě)出jsonajax發(fā)起http請求后,獲取json然后寫(xiě)入回調數據,這樣完成一個(gè)簡(jiǎn)單的一鍵生成條形碼需要的工作,從json中抽取正負數,然后用兩個(gè)前端來(lái)寫(xiě)出正負數對應的回調數據ajax向這個(gè)回調數據中寫(xiě)入條形碼。
  
  然后在javascript中去讀取讀取回調數據,寫(xiě)入的json數據到后端處理?;旧纤悸肪褪沁@樣,建議用阿里的es,而且node.js模塊也挺多的。
  可以用anki之類(lèi)的軟件,輸入正負數的時(shí)候,模擬輸入,這樣模擬輸入中包含輸入,不然一鍵生成這個(gè)功能只能輸入一種數字。 查看全部

  最新版本:淘寶前端采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖截圖
  采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖參考:(軟件)使用的mfc腳本:flex-messagesfrommessages:formmessages可用的實(shí)現:github-calendar/main:subject_messages_reader,events-messages,processor:packageofsubjectmessages可用的方案:subject-reader:messagesreader,renderer:github-calendar/messages:messagesreader,renderer:github-tiberyu/performances:messagesstreamingstreaminputdeviceapidevelopmenthadoop需要搭建運行平臺github-mango/mobile:aquickpythonframeworktoreadonmobileexcess-lifedatabylightningorlightingintojavaandtaobao。
  
  淘寶前端的一個(gè)實(shí)現是基于html5開(kāi)發(fā)的,前端可以這樣做:ajax可以讀取json數據來(lái)寫(xiě)出jsonajax發(fā)起http請求后,獲取json然后寫(xiě)入回調數據,這樣完成一個(gè)簡(jiǎn)單的一鍵生成條形碼需要的工作,從json中抽取正負數,然后用兩個(gè)前端來(lái)寫(xiě)出正負數對應的回調數據ajax向這個(gè)回調數據中寫(xiě)入條形碼。
  
  然后在javascript中去讀取讀取回調數據,寫(xiě)入的json數據到后端處理?;旧纤悸肪褪沁@樣,建議用阿里的es,而且node.js模塊也挺多的。
  可以用anki之類(lèi)的軟件,輸入正負數的時(shí)候,模擬輸入,這樣模擬輸入中包含輸入,不然一鍵生成這個(gè)功能只能輸入一種數字。

采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 141 次瀏覽 ? 2022-09-20 16:20 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理
  
  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理,快速瀏覽高質(zhì)量的圖片和視頻~將圖片、視頻鏈接導入mysql后,通過(guò)mysql里的generate_time函數,mysql會(huì )自動(dòng)計算爬取最佳時(shí)間,當取得最佳時(shí)間后,則會(huì )實(shí)時(shí)抓??!一次抓取多個(gè)網(wǎng)站,相當節省人力和時(shí)間。一條指定鏈接,
  
<p>常用的小程序的小圖片,小視頻等常用的網(wǎng)頁(yè)都是爬取的小圖片,小視頻網(wǎng)站!比如百度圖片,優(yōu)酷,今日頭條等!步驟:第一步:選定圖片并生成鏈接發(fā)布:點(diǎn)擊新建圖片生成鏈接第二步:利用requests庫,抓取圖片網(wǎng)址并轉化為文本比如百度網(wǎng)站圖片生成關(guān)鍵字:spiderpython3-requests第三步:利用requests庫,獲取對應網(wǎng)站html中的圖片,并生成可以批量下載的文本json格式數據 查看全部

  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理
  
  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理,快速瀏覽高質(zhì)量的圖片和視頻~將圖片、視頻鏈接導入mysql后,通過(guò)mysql里的generate_time函數,mysql會(huì )自動(dòng)計算爬取最佳時(shí)間,當取得最佳時(shí)間后,則會(huì )實(shí)時(shí)抓??!一次抓取多個(gè)網(wǎng)站,相當節省人力和時(shí)間。一條指定鏈接,
  
<p>常用的小程序的小圖片,小視頻等常用的網(wǎng)頁(yè)都是爬取的小圖片,小視頻網(wǎng)站!比如百度圖片,優(yōu)酷,今日頭條等!步驟:第一步:選定圖片并生成鏈接發(fā)布:點(diǎn)擊新建圖片生成鏈接第二步:利用requests庫,抓取圖片網(wǎng)址并轉化為文本比如百度網(wǎng)站圖片生成關(guān)鍵字:spiderpython3-requests第三步:利用requests庫,獲取對應網(wǎng)站html中的圖片,并生成可以批量下載的文本json格式數據

采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 106 次瀏覽 ? 2022-08-31 12:05 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?
  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?gre實(shí)時(shí)人工智能語(yǔ)音相關(guān)訓練數據回放、訓練模型、優(yōu)化損失函數讓語(yǔ)音識別準確率更高
  
  謝邀目前不算復雜的模型,基本做數據或者人工輔助不如編程語(yǔ)言,因為可學(xué)習的參數較少。人工建模能力要好過(guò)編程語(yǔ)言。至于算法,可以去搜judge的一些資料,大部分算法是通用的。
  主要是考慮大規模數據訓練時(shí)候,讓計算平臺處理數據負擔太重。這時(shí)候,就需要選擇一些通用的開(kāi)發(fā)語(yǔ)言。
  
  其實(shí)這也取決于你用來(lái)干嘛,從你的目的上來(lái)講你需要以后能夠快速的實(shí)現部署應用,你的計算量也不算特別大,數據才幾個(gè)g,你更多還是希望能用人力去解決。那么python這種語(yǔ)言就可以勝任。用其他語(yǔ)言的話(huà)就可能你的計算量會(huì )比較大,數據量也不算特別大,所以用python這種語(yǔ)言來(lái)加速計算的話(huà)也更合適。個(gè)人愚見(jiàn),歡迎指正。
  用語(yǔ)言只是輔助而已,真正的核心不在于語(yǔ)言,在于算法模型和數據規模,都是有相應模型支持的,但真的大規模部署應用時(shí),使用通用計算框架還是有一定的優(yōu)勢,應用框架本身的代碼規范性也很好,grammarly其實(shí)就支持python語(yǔ)言,你可以試試,很好用,基本上java、php、python、c、javascript、scala都支持。 查看全部

  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?
  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?gre實(shí)時(shí)人工智能語(yǔ)音相關(guān)訓練數據回放、訓練模型、優(yōu)化損失函數讓語(yǔ)音識別準確率更高
  
  謝邀目前不算復雜的模型,基本做數據或者人工輔助不如編程語(yǔ)言,因為可學(xué)習的參數較少。人工建模能力要好過(guò)編程語(yǔ)言。至于算法,可以去搜judge的一些資料,大部分算法是通用的。
  主要是考慮大規模數據訓練時(shí)候,讓計算平臺處理數據負擔太重。這時(shí)候,就需要選擇一些通用的開(kāi)發(fā)語(yǔ)言。
  
  其實(shí)這也取決于你用來(lái)干嘛,從你的目的上來(lái)講你需要以后能夠快速的實(shí)現部署應用,你的計算量也不算特別大,數據才幾個(gè)g,你更多還是希望能用人力去解決。那么python這種語(yǔ)言就可以勝任。用其他語(yǔ)言的話(huà)就可能你的計算量會(huì )比較大,數據量也不算特別大,所以用python這種語(yǔ)言來(lái)加速計算的話(huà)也更合適。個(gè)人愚見(jiàn),歡迎指正。
  用語(yǔ)言只是輔助而已,真正的核心不在于語(yǔ)言,在于算法模型和數據規模,都是有相應模型支持的,但真的大規模部署應用時(shí),使用通用計算框架還是有一定的優(yōu)勢,應用框架本身的代碼規范性也很好,grammarly其實(shí)就支持python語(yǔ)言,你可以試試,很好用,基本上java、php、python、c、javascript、scala都支持。

采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志(組圖)

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 162 次瀏覽 ? 2022-08-02 18:01 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志(組圖)
  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志,
  uri統計分析用生意寶,接口質(zhì)量好,缺點(diǎn)是開(kāi)發(fā)人員定制多些。統計效果還可以。質(zhì)量也還可以。還可以申請到產(chǎn)品定制化,如果公司產(chǎn)品適合這個(gè)接口形式,效果好,質(zhì)量高,建議直接申請。
  第三方的話(huà),可以通過(guò)easyrecoveryserver+調用率來(lái)看,但是想要做比較全面的報表的話(huà),需要稍微做些封裝,因為有些數據是不能隨便掃描而獲取,為了避免此類(lèi)情況發(fā)生,需要一些開(kāi)發(fā)知識,
  
  我覺(jué)得craigslist也應該能做呀,不然現在他們的api都這么高了。
  用craigslist
  可以從數據源頭采集,也可以從其他渠道(比如:自己做統計模型)抓取,或者為了實(shí)現報表(就是你說(shuō)的篩選/審查內容),每天填報至api,如果前期沒(méi)有數據積累,很容易后期就只能依靠你自己增加人力來(lái)填了...
  用api也好不用api也好各有優(yōu)缺點(diǎn),不能一概而論。然后一般要是上架一些第三方分析工具或者數據分析平臺也可以,目前感覺(jué)美橙互聯(lián)和大學(xué)畢業(yè)生還不錯,可以提供個(gè)數據接口。我試用過(guò)一些第三方還是覺(jué)得本地統計效果會(huì )好些。
  
  我一直在用用數可以查看評論趨勢、評論分析
  1、要是有持續更新的數據,就做流量統計和行為軌跡分析。你可以花錢(qián)買(mǎi)這兩個(gè)數據。
  2、平時(shí)沒(méi)事多看看天氣、新聞;上班路上一兩個(gè)小時(shí)的統計;開(kāi)會(huì )時(shí)的評論記錄;坐地鐵去的路上的記錄。這些都是有價(jià)值的數據。
  3、要是沒(méi)事就是這個(gè)行業(yè)熱點(diǎn)事件,大事件,可以打開(kāi)官網(wǎng)列表,你就能發(fā)現他們在哪有活動(dòng),有要出什么大事。 查看全部

  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志(組圖)
  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志,
  uri統計分析用生意寶,接口質(zhì)量好,缺點(diǎn)是開(kāi)發(fā)人員定制多些。統計效果還可以。質(zhì)量也還可以。還可以申請到產(chǎn)品定制化,如果公司產(chǎn)品適合這個(gè)接口形式,效果好,質(zhì)量高,建議直接申請。
  第三方的話(huà),可以通過(guò)easyrecoveryserver+調用率來(lái)看,但是想要做比較全面的報表的話(huà),需要稍微做些封裝,因為有些數據是不能隨便掃描而獲取,為了避免此類(lèi)情況發(fā)生,需要一些開(kāi)發(fā)知識,
  
  我覺(jué)得craigslist也應該能做呀,不然現在他們的api都這么高了。
  用craigslist
  可以從數據源頭采集,也可以從其他渠道(比如:自己做統計模型)抓取,或者為了實(shí)現報表(就是你說(shuō)的篩選/審查內容),每天填報至api,如果前期沒(méi)有數據積累,很容易后期就只能依靠你自己增加人力來(lái)填了...
  用api也好不用api也好各有優(yōu)缺點(diǎn),不能一概而論。然后一般要是上架一些第三方分析工具或者數據分析平臺也可以,目前感覺(jué)美橙互聯(lián)和大學(xué)畢業(yè)生還不錯,可以提供個(gè)數據接口。我試用過(guò)一些第三方還是覺(jué)得本地統計效果會(huì )好些。
  
  我一直在用用數可以查看評論趨勢、評論分析
  1、要是有持續更新的數據,就做流量統計和行為軌跡分析。你可以花錢(qián)買(mǎi)這兩個(gè)數據。
  2、平時(shí)沒(méi)事多看看天氣、新聞;上班路上一兩個(gè)小時(shí)的統計;開(kāi)會(huì )時(shí)的評論記錄;坐地鐵去的路上的記錄。這些都是有價(jià)值的數據。
  3、要是沒(méi)事就是這個(gè)行業(yè)熱點(diǎn)事件,大事件,可以打開(kāi)官網(wǎng)列表,你就能發(fā)現他們在哪有活動(dòng),有要出什么大事。

采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingserversngservers)程序

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 154 次瀏覽 ? 2022-07-16 03:04 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingserversngservers)程序
  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingservers)可將mongodb的sha256值分解成隨機值或隨機編碼,利用這些值恢復mongodb中每個(gè)數據塊所使用的hash值。
  對于一個(gè)可重試的mongodb連接可實(shí)現零錯誤恢復。采集default的hashpoolconverters程序中的高級功能每次都將會(huì )產(chǎn)生一個(gè)隨機的executableencryptioncode用于生成一個(gè)新的內部加密密鑰,這個(gè)內部加密密鑰是在生成的內部加密密鑰中設定的,其作用是為每個(gè)mongodb對象賦予新的內部加密密鑰。
  
  這些設定的隨機密鑰對是通過(guò)查詢(xún)列表(querylist)的路徑逐級查詢(xún)得到的。每個(gè)mongodb對象的每個(gè)實(shí)例都可以獲得特定實(shí)例對應的無(wú)鑰鑰匙對。例如mongodbcollection擁有2個(gè)不同實(shí)例(mongodbcollectionproperties)。那么可以查詢(xún)任意實(shí)例對應的hashpoolconverters程序中的程序員可以通過(guò)如下parsetree參數獲得3個(gè)hashpoolconverters(實(shí)例對應的隨機內部加密密鑰(hashpoolsha256)={name:"a",secret:"zhangsan",required:"accesskey"})。
  直至完成此操作,程序員需要使用check函數回收內部加密密鑰,否則程序將無(wú)法進(jìn)行加密密鑰校驗操作。采集hashpoolconverters程序在運行時(shí)會(huì )產(chǎn)生一個(gè)linkedhashpool結構表,儲存所有被依次查詢(xún)過(guò)的所有對象的hash值。這些hash值按如下順序依次儲存于hashpoolconverters的下一頁(yè)記錄中:linkedhashpoolsize、hashpoolconfig、hashpoolpublickeykey、indexsize、executablesize。
  
  建議選擇默認的尺寸即index(“xxx”)來(lái)查看多個(gè)對象實(shí)例對應的hashconfig。hashpoolconfig中可以配置這些編碼:1、輸入可輸入hashpool_config,或mongodb-config-hashpool,或mongodb-portal-hashpoolassetssourcesize:mongodb是一個(gè)namespace,而portal是一個(gè)namespace,即specifiedentityaddress(smb),所以默認linkedhashpool_config在entityaddress是smb而非mongodb的情況下,后端設置輸入outputsize要選擇“scaletoatleastnumberofpages”。
  sha256默認值為128,若對configoutputsize設置為128則默認對configoutputsize進(jìn)行了16次減半操作。在hashpool_config中顯示保存了所有實(shí)例對應的hashconfig,設置linkedhashpool_config中的大小是可選的,另外設置configoutputsize有更多方便控制效率的好處。
  linkedhashpool_config:實(shí)例對應的hashconfigoutputsize對于實(shí)例保存在entityaddress(smb),且configoutputsize是configout。 查看全部

  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingserversngservers)程序
  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingservers)可將mongodb的sha256值分解成隨機值或隨機編碼,利用這些值恢復mongodb中每個(gè)數據塊所使用的hash值。
  對于一個(gè)可重試的mongodb連接可實(shí)現零錯誤恢復。采集default的hashpoolconverters程序中的高級功能每次都將會(huì )產(chǎn)生一個(gè)隨機的executableencryptioncode用于生成一個(gè)新的內部加密密鑰,這個(gè)內部加密密鑰是在生成的內部加密密鑰中設定的,其作用是為每個(gè)mongodb對象賦予新的內部加密密鑰。
  
  這些設定的隨機密鑰對是通過(guò)查詢(xún)列表(querylist)的路徑逐級查詢(xún)得到的。每個(gè)mongodb對象的每個(gè)實(shí)例都可以獲得特定實(shí)例對應的無(wú)鑰鑰匙對。例如mongodbcollection擁有2個(gè)不同實(shí)例(mongodbcollectionproperties)。那么可以查詢(xún)任意實(shí)例對應的hashpoolconverters程序中的程序員可以通過(guò)如下parsetree參數獲得3個(gè)hashpoolconverters(實(shí)例對應的隨機內部加密密鑰(hashpoolsha256)={name:"a",secret:"zhangsan",required:"accesskey"})。
  直至完成此操作,程序員需要使用check函數回收內部加密密鑰,否則程序將無(wú)法進(jìn)行加密密鑰校驗操作。采集hashpoolconverters程序在運行時(shí)會(huì )產(chǎn)生一個(gè)linkedhashpool結構表,儲存所有被依次查詢(xún)過(guò)的所有對象的hash值。這些hash值按如下順序依次儲存于hashpoolconverters的下一頁(yè)記錄中:linkedhashpoolsize、hashpoolconfig、hashpoolpublickeykey、indexsize、executablesize。
  
  建議選擇默認的尺寸即index(“xxx”)來(lái)查看多個(gè)對象實(shí)例對應的hashconfig。hashpoolconfig中可以配置這些編碼:1、輸入可輸入hashpool_config,或mongodb-config-hashpool,或mongodb-portal-hashpoolassetssourcesize:mongodb是一個(gè)namespace,而portal是一個(gè)namespace,即specifiedentityaddress(smb),所以默認linkedhashpool_config在entityaddress是smb而非mongodb的情況下,后端設置輸入outputsize要選擇“scaletoatleastnumberofpages”。
  sha256默認值為128,若對configoutputsize設置為128則默認對configoutputsize進(jìn)行了16次減半操作。在hashpool_config中顯示保存了所有實(shí)例對應的hashconfig,設置linkedhashpool_config中的大小是可選的,另外設置configoutputsize有更多方便控制效率的好處。
  linkedhashpool_config:實(shí)例對應的hashconfigoutputsize對于實(shí)例保存在entityaddress(smb),且configoutputsize是configout。

采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 135 次瀏覽 ? 2022-07-10 01:02 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式
  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式flv/mp4-250m/300m-單次/每小時(shí)更新一次-統一更新每次一個(gè)(視頻另存在一個(gè)文件夾,最好放在c盤(pán))選擇clone.bat或者clone.exe,打開(kāi)程序clone_bat,雙擊即可進(jìn)入單步驟操作記錄新建腳本-格式-要儲存哪一個(gè)武器-電腦名稱(chēng)-頻率-時(shí)間戳保存文件-保存-開(kāi)始組合。
  輸入以下命令-int12/8,1**/8,1**/8,2**/8//或者int12的二進(jìn)制格式0.0.0.0-int12/8,1**/8,2**/8//如果頻率為1表示一次只能更新一個(gè)武器。
  
  卡馬克開(kāi)發(fā)的replaycalibrate插件
  都是百度出來(lái)的用兩個(gè)cmd命令編輯一下f10并且保存就可以進(jìn)行組合動(dòng)作
  現在一般是flash文件
  
  以前是用文本文檔,可以導出為其他格式,不過(guò)會(huì )有內容丟失。如果選擇好的平臺的話(huà),可以考慮下php語(yǔ)言腳本。比如wordpress做的replaypro,用這種文件夾式視頻組合腳本可以導出為很多格式,包括.exe格式。
  能在php里寫(xiě)的的話(huà)還是用php寫(xiě)吧,操作系統的話(huà)真的推薦python,windows上的話(huà)也可以考慮.net也不錯。
  本人沒(méi)有接觸過(guò)復雜的腳本,以下講解僅供參考。從事網(wǎng)頁(yè)編程工作10年來(lái),對瀏覽器的開(kāi)發(fā)和遠程抓?。ù笥诘扔?0g以?xún)龋┓矫嬷R也算比較豐富,參考資料:1.卡馬克(chrome,netscape9.0/11,原為chrome)手機版webkit不可訪(fǎng)問(wèn)(后經(jīng)補充)2.奇虎360-騰訊web服務(wù)器-機鋒市場(chǎng)-迅雷安全中心3.1pcgage.pdf+國外chrome的抓取腳本源碼:http/1.1200okthengottobeindexed.4.正經(jīng)點(diǎn)的參考:我的個(gè)人博客有些圖片不是有手機版本,這些圖片都是站長(cháng)提供的,要支持這些圖片我選擇的是(曾經(jīng)分享過(guò))picasa。
  圖片文件處理使用imageio(好處是直接支持(批量為)圖片處理,不限畫(huà)質(zhì)、尺寸)。你也可以打包(progressive+xml)使用你的php文件或json格式的文件,然后createjsxmlcontainer這樣的東西??茨愕牟呗?,如果不允許保存(可以看下我的blog)。 查看全部

  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式
  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式flv/mp4-250m/300m-單次/每小時(shí)更新一次-統一更新每次一個(gè)(視頻另存在一個(gè)文件夾,最好放在c盤(pán))選擇clone.bat或者clone.exe,打開(kāi)程序clone_bat,雙擊即可進(jìn)入單步驟操作記錄新建腳本-格式-要儲存哪一個(gè)武器-電腦名稱(chēng)-頻率-時(shí)間戳保存文件-保存-開(kāi)始組合。
  輸入以下命令-int12/8,1**/8,1**/8,2**/8//或者int12的二進(jìn)制格式0.0.0.0-int12/8,1**/8,2**/8//如果頻率為1表示一次只能更新一個(gè)武器。
  
  卡馬克開(kāi)發(fā)的replaycalibrate插件
  都是百度出來(lái)的用兩個(gè)cmd命令編輯一下f10并且保存就可以進(jìn)行組合動(dòng)作
  現在一般是flash文件
  
  以前是用文本文檔,可以導出為其他格式,不過(guò)會(huì )有內容丟失。如果選擇好的平臺的話(huà),可以考慮下php語(yǔ)言腳本。比如wordpress做的replaypro,用這種文件夾式視頻組合腳本可以導出為很多格式,包括.exe格式。
  能在php里寫(xiě)的的話(huà)還是用php寫(xiě)吧,操作系統的話(huà)真的推薦python,windows上的話(huà)也可以考慮.net也不錯。
  本人沒(méi)有接觸過(guò)復雜的腳本,以下講解僅供參考。從事網(wǎng)頁(yè)編程工作10年來(lái),對瀏覽器的開(kāi)發(fā)和遠程抓?。ù笥诘扔?0g以?xún)龋┓矫嬷R也算比較豐富,參考資料:1.卡馬克(chrome,netscape9.0/11,原為chrome)手機版webkit不可訪(fǎng)問(wèn)(后經(jīng)補充)2.奇虎360-騰訊web服務(wù)器-機鋒市場(chǎng)-迅雷安全中心3.1pcgage.pdf+國外chrome的抓取腳本源碼:http/1.1200okthengottobeindexed.4.正經(jīng)點(diǎn)的參考:我的個(gè)人博客有些圖片不是有手機版本,這些圖片都是站長(cháng)提供的,要支持這些圖片我選擇的是(曾經(jīng)分享過(guò))picasa。
  圖片文件處理使用imageio(好處是直接支持(批量為)圖片處理,不限畫(huà)質(zhì)、尺寸)。你也可以打包(progressive+xml)使用你的php文件或json格式的文件,然后createjsxmlcontainer這樣的東西??茨愕牟呗?,如果不允許保存(可以看下我的blog)。

采集自動(dòng)組合apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,抓取

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 139 次瀏覽 ? 2022-07-03 20:00 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,抓取
  采集自動(dòng)組合
  apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,
  超級夜貓子沒(méi)錢(qián)
  
  手機qq
  是剛出的不可以嗎?db可以搜到icp資源。
  很有趣的想法,大小2個(gè)人手機端分別連wifi后,互相監控,加速,分時(shí)模擬在線(xiàn)和離線(xiàn)的狀態(tài)。
  1)eggos可以嘗試:tonymoly82/eggos·github這款產(chǎn)品你可以看看,百度有pdf版本,v4版本,比官方的,移動(dòng)app友好:)3.軟件好不好,看運營(yíng)策略和產(chǎn)品規劃。游戲用,游戲差不多好,支持多設備,手機就可以聯(lián)網(wǎng)。
  
  3)talk的一些組件:covmount/talk-scrm·github,可以在手機端實(shí)現客服,熱點(diǎn)區域,離線(xiàn)狀態(tài)等,api基本互通,
  4)還有一些推薦,小團隊短時(shí)間內可以看看自己的需求,功能開(kāi)發(fā),但是否被蘋(píng)果3dmark11,記錄玩家在線(xiàn)與離線(xiàn)狀態(tài),可以預期,國內的產(chǎn)品app肯定不能自動(dòng)抓取,國外的可以。
  5)你可以設計個(gè)自動(dòng)被抓取的端,只要手機搜索一下,你設定的tag下,你想抓取什么類(lèi)型的數據,app就會(huì )自動(dòng)抓取對應的數據,但是自動(dòng)抓取前,會(huì )給你規定當前的pv(新訪(fǎng)問(wèn)量)和游戲類(lèi)型。
  6)運營(yíng)的營(yíng)銷(xiāo)過(guò)程中,抓取的詞,也可以作為話(huà)題詞來(lái)做分析??傮w上,多接入大的平臺是個(gè)好事,但還有很多事情要做,還在摸索中。-另外這類(lèi)軟件如果有云端也可以考慮下。 查看全部

  采集自動(dòng)組合apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,抓取
  采集自動(dòng)組合
  apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,
  超級夜貓子沒(méi)錢(qián)
  
  手機qq
  是剛出的不可以嗎?db可以搜到icp資源。
  很有趣的想法,大小2個(gè)人手機端分別連wifi后,互相監控,加速,分時(shí)模擬在線(xiàn)和離線(xiàn)的狀態(tài)。
  1)eggos可以嘗試:tonymoly82/eggos·github這款產(chǎn)品你可以看看,百度有pdf版本,v4版本,比官方的,移動(dòng)app友好:)3.軟件好不好,看運營(yíng)策略和產(chǎn)品規劃。游戲用,游戲差不多好,支持多設備,手機就可以聯(lián)網(wǎng)。
  
  3)talk的一些組件:covmount/talk-scrm·github,可以在手機端實(shí)現客服,熱點(diǎn)區域,離線(xiàn)狀態(tài)等,api基本互通,
  4)還有一些推薦,小團隊短時(shí)間內可以看看自己的需求,功能開(kāi)發(fā),但是否被蘋(píng)果3dmark11,記錄玩家在線(xiàn)與離線(xiàn)狀態(tài),可以預期,國內的產(chǎn)品app肯定不能自動(dòng)抓取,國外的可以。
  5)你可以設計個(gè)自動(dòng)被抓取的端,只要手機搜索一下,你設定的tag下,你想抓取什么類(lèi)型的數據,app就會(huì )自動(dòng)抓取對應的數據,但是自動(dòng)抓取前,會(huì )給你規定當前的pv(新訪(fǎng)問(wèn)量)和游戲類(lèi)型。
  6)運營(yíng)的營(yíng)銷(xiāo)過(guò)程中,抓取的詞,也可以作為話(huà)題詞來(lái)做分析??傮w上,多接入大的平臺是個(gè)好事,但還有很多事情要做,還在摸索中。-另外這類(lèi)軟件如果有云端也可以考慮下。

KDD 2019 | 自動(dòng)探索特征組合,第四范式提出新方法AutoCross

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 106 次瀏覽 ? 2022-06-22 23:32 ? 來(lái)自相關(guān)話(huà)題

  KDD 2019 | 自動(dòng)探索特征組合,第四范式提出新方法AutoCross
  涂威威、陳雨強、楊強、戴文淵
  特征組合是提高模型效果的重要手段,但依靠專(zhuān)家手動(dòng)探索和試錯成本過(guò)高且過(guò)于繁瑣。于是,第四范式提出了一種新型特征組合方法 AutoCross,該方法可在實(shí)際應用中自動(dòng)實(shí)現表數據的特征組合,提高機器學(xué)習算法的預測能力,并提升效率和有效性。目前,該論文已被數據挖掘領(lǐng)域頂會(huì ) KDD 2019 接收。
  論文簡(jiǎn)介
  論文:AutoCross: Automatic Feature Crossing for Tabular Data in Real-World Applications
  論文鏈接:
  本文提出了一種在實(shí)際應用中自動(dòng)實(shí)現表數據特征組合的方法 AutoCross。該方法可以獲得特征之間有用的相互作用,并提高機器學(xué)習算法的預測能力。該方法利用集束搜索策略(beam search strategy)構建有效的組合特征,其中包含尚未被現有工作覆蓋的高階(兩個(gè)以上)特征組合,彌補了此前工作的不足。
  此外,該研究提出了連續小批量梯度下降和多粒度離散化,以進(jìn)一步提高效率和有效性,同時(shí)確保簡(jiǎn)單,無(wú)需機器學(xué)習專(zhuān)業(yè)知識或冗長(cháng)的超參數調整。這些算法旨在降低分布式計算中涉及的計算、傳輸和存儲成本。在基準數據集和真實(shí)業(yè)務(wù)數據集上的實(shí)驗結果表明,AutoCross 可以顯著(zhù)提高線(xiàn)性模型和深度模型對表數據的學(xué)習能力和性能,優(yōu)于其他基于搜索和深度學(xué)習的特征生成方法,進(jìn)一步證明了其有效性和效率。
  背景介紹
  近年來(lái),機器學(xué)習雖然已在推薦系統、在線(xiàn)廣告、金融市場(chǎng)分析等諸多領(lǐng)域取得了很多成功,但在這些成功的應用中,人類(lèi)專(zhuān)家參與了機器學(xué)習的所有階段,包括:定義問(wèn)題、收集數據、特征工程、調整模型超參數,模型評估等。
  而這些任務(wù)的復雜性往往超出了非機器學(xué)習專(zhuān)家的能力范圍。機器學(xué)習技術(shù)使用門(mén)檻高、專(zhuān)家成本高昂等問(wèn)題成為了制約 AI 普及的關(guān)鍵因素。因此,AutoML 的出現被視為提高機器學(xué)習易用性的一種最有效方法,通過(guò)技術(shù)手段減少對人類(lèi)專(zhuān)家的依賴(lài),讓更多的人應用 AI,獲得更大的社會(huì )和商業(yè)效益。
  眾所周知,機器學(xué)習的性能很大程度上取決于特征的質(zhì)量。由于原始特征很少產(chǎn)生令人滿(mǎn)意的結果,因此通常要對特征進(jìn)行組合,以更好地表示數據并提高學(xué)習性能。例如在新聞推薦中,若只有新聞類(lèi)型、用戶(hù) ID 兩類(lèi)特征,模型只能分別預測不同新聞類(lèi)型或不同用戶(hù) ID 對點(diǎn)擊率的影響。通過(guò)加入新聞類(lèi)型 x 用戶(hù) ID 組合特征,模型就可學(xué)習到一個(gè)用戶(hù)對不同新聞的偏好。再加入時(shí)間等特征進(jìn)行高階組合,模型就可對一個(gè)用戶(hù)在不同時(shí)間對不同新聞的偏好進(jìn)行預測,提升模型的個(gè)性化預測能力。
  特征組合作為提高模型效果的重要手段,以往大多需要構建龐大的數據科學(xué)家團隊,依靠他們的經(jīng)驗進(jìn)行探索和試錯,但繁瑣、低效的過(guò)程令科學(xué)家十分痛苦,且并非所有企業(yè)都能承受高昂的成本。
  第四范式從很早便開(kāi)始關(guān)注并深耕 AutoML 領(lǐng)域,從解決客戶(hù)業(yè)務(wù)核心增長(cháng)的角度出發(fā),構建了反欺詐、個(gè)性化推薦等業(yè)務(wù)場(chǎng)景下的 AutoML,并將其賦能給企業(yè)的普通開(kāi)發(fā)人員,取得了接近甚至超過(guò)數據科學(xué)家的業(yè)務(wù)效果。其中,AutoCross 發(fā)揮了重要的作用。
  痛點(diǎn)
  特征組合是對從數據中提取的海量原始特征進(jìn)行組合的過(guò)程,采用稀疏特征叉乘得出組合特征。在線(xiàn)性模型如 LR 只能刻畫(huà)特征間的線(xiàn)性關(guān)系、表達能力受限,而非線(xiàn)性模型如 GBDT 不能應用于大規模離散特征場(chǎng)景的情況下,特征組合能夠增加數據的非線(xiàn)性,從而提高性能。
  但枚舉所有組合特性,理論上很難做到,因為可能的組合特征數是指數級的,同時(shí)暴力添加特征可能會(huì )導致學(xué)習性能下降,因為它們可能是無(wú)關(guān)的或冗余的特征,從而增加學(xué)習難度。
  雖然深度神經(jīng)網(wǎng)絡(luò )可自動(dòng)構建高階特征 (generate high-order features),但面對大多數以表形式呈現的業(yè)務(wù)數據,最先進(jìn)的基于深度學(xué)習的方法無(wú)法有效涵蓋所有高階組合特征,且存在可解釋性差、計算成本高等弊端。該論文投稿時(shí),最先進(jìn)的深度學(xué)習方法是 xDeepFM [1]。這篇論文證明了 xDeepFM 可生成的特征是 AutoCross 可生成特征嵌入(embedding)的子集。
  AutoCross 的優(yōu)勢
  實(shí)現過(guò)程
  給定訓練數據
  
  ,并將其劃分為訓練集
  
  和驗證集
  
  。我們可以用一個(gè)特征集合 S 來(lái)表示
  
  ,并用學(xué)習算法 L 訓練一個(gè)模型
  
  。之后,用驗證集和同一個(gè)特征集合 S 計算一個(gè)需要被最大化的指標
  
  。特征組合搜索問(wèn)題可以定義為搜索一個(gè)最優(yōu)子特征集的問(wèn)題:
  
  其中 F 是
  
  的原始特征集合,
  
  包含 F 所有原始特征以及基于 F 可生成的所有組合特征。
  但是,假設原始特征數為 d,則上述問(wèn)題中所有可能解的數量是
  
  ,搜索空間巨大。為了提高搜索效率,AutoCross 將搜索最優(yōu)子特征集的問(wèn)題轉換為用貪婪策略逐步構建較優(yōu)解的問(wèn)題。首先,AutoCross 考慮一個(gè)樹(shù)結構的搜索空間
 ?。▓D 3),其中每一個(gè)節點(diǎn)表示一個(gè)子特征集。之后,用集束搜索策略在
  上搜索較優(yōu)解。通過(guò)這種方法,AutoCross 只需要訪(fǎng)問(wèn)
  
  個(gè)候選解,極大地提高了搜索效率。AutoCross 的整體算法如算法 1 所示。
  
  
  算法 1 中的一個(gè)關(guān)鍵步驟是評估候選特征集。最直接的方法是用每個(gè)候選特征集訓練模型并評估其性能,但是這種方法計算代價(jià)巨大,難以在搜索過(guò)程中反復執行。為了提高特征集評估的效率,AutoCross 提出了逐域對數幾率回歸(field-wise logistic regression)和連續批訓練梯度下降(successive mini-batch gradient descent)方法。
  為了提高特征集評估效率,逐域對數幾率回歸作出兩種近似。首先,用特征集在對數幾率回歸模型上的表現近似最終將使用這個(gè)特征集的模型上的表現;其次,在考慮
  中一個(gè)節點(diǎn)的子節點(diǎn)時(shí),不改變該節點(diǎn)包含特征對應的權重(weight),僅訓練子節點(diǎn)新增特征的權重。
  圖 4 說(shuō)明了如何將逐域對數幾率回歸部署在參數服務(wù)器架構上。逐域對數幾率回歸與參數服務(wù)器的結合可以提高特征集評估的存儲效率、傳輸效率和計算效率。在逐域對數幾率回歸訓練結束后,AutoCross 計算訓練得模型的指標,并以此方法來(lái)評估每一個(gè)候選特征集。
  
  AutoCross 采用連續批訓練梯度下降方法進(jìn)一步提高特征集評估的效率。該方法借鑒 successive halving 算法 [2],認為每一個(gè)候選特征集是 multi-arm bandit 問(wèn)題中的一個(gè) arm,對一個(gè)特征集用一個(gè)數據塊進(jìn)行權重更新相當于拉了一次對應的 arm,其回報為該次訓練后的驗證集 AUC。
  具體算法見(jiàn)算法 2,算法 2 中唯一的參數是數據塊的數量 N。N 可以根據數據的大小和計算環(huán)境自適應地確定。在使用連續批訓練梯度下降時(shí),用戶(hù)不需要像使用傳統的 subsampling 方法一樣調整 mini-batch 的尺寸和采樣率。
  
  為了支持數值特征與離散特征的組合,AutoCross 在預處理時(shí)將數值特征離散化為離散特征。AutoCross 提出了多粒度離散化(multi-granularity discretization)方法,使得用戶(hù)不需要反復調整離散化的粒度。多粒度離散化思想簡(jiǎn)單:將每一個(gè)數值特征,根據不同粒度劃分為多個(gè)離散特征。然后采用逐域對數幾率回歸挑選出最優(yōu)的離散特征。多個(gè)劃分粒度既可以由用戶(hù)指定,也可以由 AutoCross 根據數據大小和計算環(huán)境來(lái)自適應地選擇,從而降低了用戶(hù)的使用難度。
  實(shí)驗結果
  該論文在十個(gè)數據集(五個(gè)公開(kāi)、五個(gè)實(shí)際業(yè)務(wù))上進(jìn)行了實(shí)驗。比較的方法包括:
  效果比較:如下表 3 所示,AC+LR 和 AC+W&D 在大部分數據集上的排名都在前兩位。這體現了 AutoCross 產(chǎn)生的特征不僅可以增強 LR 模型,也可以用于提高深度學(xué)習模型的性能,并且 AC+LR 和 AC+W&D 的效果都優(yōu)于 xDeepFM。如之前所說(shuō),xDeepFM 所生成的特征不能完全包含 AutoCross 生成的特征。這些結果體現出顯式生成高階組合特征的效果優(yōu)勢。
  
  高階特征的作用:見(jiàn)表 5 和圖 6。從中可以得出,高階組合特征可以有效提高模型性能。
  
  時(shí)間消耗:見(jiàn)表 6、圖 7(主要做展示用)。
  
  
  推斷延遲:見(jiàn)表 7。從中可以得出:AC+LR 的推斷速度比 AC+W&D、Deep、xDeepFM 快幾個(gè)數量級。這說(shuō)明 AutoCross 不僅可以提高模型表現,同時(shí)保證了很低的推斷延遲。
  
  參考文獻
  [1] J. Lian, X. Zhou, F. Zhang, Z. Chen, X. Xie, and G. Sun. 2018. xDeepFM: Com- bining Explicit and Implicit Feature Interactions for Recommender Systems. In International Conference on Knowledge Discovery & Data Mining.
  [2] K. Jamieson and A. Talwalkar. 2016. Non-stochastic best arm identification and hyperparameter optimization. In Artificial Intelligence and Statistics. 240–248.
  [3] O. Chapelle, E. Manavoglu, and R. Rosales. 2015. Simple and scalable response prediction for display advertising. ACM Transactions on Intelligent Systems and Technology (TIST) 5, 4 (2015), 61. 查看全部

  KDD 2019 | 自動(dòng)探索特征組合,第四范式提出新方法AutoCross
  涂威威、陳雨強、楊強、戴文淵
  特征組合是提高模型效果的重要手段,但依靠專(zhuān)家手動(dòng)探索和試錯成本過(guò)高且過(guò)于繁瑣。于是,第四范式提出了一種新型特征組合方法 AutoCross,該方法可在實(shí)際應用中自動(dòng)實(shí)現表數據的特征組合,提高機器學(xué)習算法的預測能力,并提升效率和有效性。目前,該論文已被數據挖掘領(lǐng)域頂會(huì ) KDD 2019 接收。
  論文簡(jiǎn)介
  論文:AutoCross: Automatic Feature Crossing for Tabular Data in Real-World Applications
  論文鏈接:
  本文提出了一種在實(shí)際應用中自動(dòng)實(shí)現表數據特征組合的方法 AutoCross。該方法可以獲得特征之間有用的相互作用,并提高機器學(xué)習算法的預測能力。該方法利用集束搜索策略(beam search strategy)構建有效的組合特征,其中包含尚未被現有工作覆蓋的高階(兩個(gè)以上)特征組合,彌補了此前工作的不足。
  此外,該研究提出了連續小批量梯度下降和多粒度離散化,以進(jìn)一步提高效率和有效性,同時(shí)確保簡(jiǎn)單,無(wú)需機器學(xué)習專(zhuān)業(yè)知識或冗長(cháng)的超參數調整。這些算法旨在降低分布式計算中涉及的計算、傳輸和存儲成本。在基準數據集和真實(shí)業(yè)務(wù)數據集上的實(shí)驗結果表明,AutoCross 可以顯著(zhù)提高線(xiàn)性模型和深度模型對表數據的學(xué)習能力和性能,優(yōu)于其他基于搜索和深度學(xué)習的特征生成方法,進(jìn)一步證明了其有效性和效率。
  背景介紹
  近年來(lái),機器學(xué)習雖然已在推薦系統、在線(xiàn)廣告、金融市場(chǎng)分析等諸多領(lǐng)域取得了很多成功,但在這些成功的應用中,人類(lèi)專(zhuān)家參與了機器學(xué)習的所有階段,包括:定義問(wèn)題、收集數據、特征工程、調整模型超參數,模型評估等。
  而這些任務(wù)的復雜性往往超出了非機器學(xué)習專(zhuān)家的能力范圍。機器學(xué)習技術(shù)使用門(mén)檻高、專(zhuān)家成本高昂等問(wèn)題成為了制約 AI 普及的關(guān)鍵因素。因此,AutoML 的出現被視為提高機器學(xué)習易用性的一種最有效方法,通過(guò)技術(shù)手段減少對人類(lèi)專(zhuān)家的依賴(lài),讓更多的人應用 AI,獲得更大的社會(huì )和商業(yè)效益。
  眾所周知,機器學(xué)習的性能很大程度上取決于特征的質(zhì)量。由于原始特征很少產(chǎn)生令人滿(mǎn)意的結果,因此通常要對特征進(jìn)行組合,以更好地表示數據并提高學(xué)習性能。例如在新聞推薦中,若只有新聞類(lèi)型、用戶(hù) ID 兩類(lèi)特征,模型只能分別預測不同新聞類(lèi)型或不同用戶(hù) ID 對點(diǎn)擊率的影響。通過(guò)加入新聞類(lèi)型 x 用戶(hù) ID 組合特征,模型就可學(xué)習到一個(gè)用戶(hù)對不同新聞的偏好。再加入時(shí)間等特征進(jìn)行高階組合,模型就可對一個(gè)用戶(hù)在不同時(shí)間對不同新聞的偏好進(jìn)行預測,提升模型的個(gè)性化預測能力。
  特征組合作為提高模型效果的重要手段,以往大多需要構建龐大的數據科學(xué)家團隊,依靠他們的經(jīng)驗進(jìn)行探索和試錯,但繁瑣、低效的過(guò)程令科學(xué)家十分痛苦,且并非所有企業(yè)都能承受高昂的成本。
  第四范式從很早便開(kāi)始關(guān)注并深耕 AutoML 領(lǐng)域,從解決客戶(hù)業(yè)務(wù)核心增長(cháng)的角度出發(fā),構建了反欺詐、個(gè)性化推薦等業(yè)務(wù)場(chǎng)景下的 AutoML,并將其賦能給企業(yè)的普通開(kāi)發(fā)人員,取得了接近甚至超過(guò)數據科學(xué)家的業(yè)務(wù)效果。其中,AutoCross 發(fā)揮了重要的作用。
  痛點(diǎn)
  特征組合是對從數據中提取的海量原始特征進(jìn)行組合的過(guò)程,采用稀疏特征叉乘得出組合特征。在線(xiàn)性模型如 LR 只能刻畫(huà)特征間的線(xiàn)性關(guān)系、表達能力受限,而非線(xiàn)性模型如 GBDT 不能應用于大規模離散特征場(chǎng)景的情況下,特征組合能夠增加數據的非線(xiàn)性,從而提高性能。
  但枚舉所有組合特性,理論上很難做到,因為可能的組合特征數是指數級的,同時(shí)暴力添加特征可能會(huì )導致學(xué)習性能下降,因為它們可能是無(wú)關(guān)的或冗余的特征,從而增加學(xué)習難度。
  雖然深度神經(jīng)網(wǎng)絡(luò )可自動(dòng)構建高階特征 (generate high-order features),但面對大多數以表形式呈現的業(yè)務(wù)數據,最先進(jìn)的基于深度學(xué)習的方法無(wú)法有效涵蓋所有高階組合特征,且存在可解釋性差、計算成本高等弊端。該論文投稿時(shí),最先進(jìn)的深度學(xué)習方法是 xDeepFM [1]。這篇論文證明了 xDeepFM 可生成的特征是 AutoCross 可生成特征嵌入(embedding)的子集。
  AutoCross 的優(yōu)勢
  實(shí)現過(guò)程
  給定訓練數據
  
  ,并將其劃分為訓練集
  
  和驗證集
  
  。我們可以用一個(gè)特征集合 S 來(lái)表示
  
  ,并用學(xué)習算法 L 訓練一個(gè)模型
  
  。之后,用驗證集和同一個(gè)特征集合 S 計算一個(gè)需要被最大化的指標
  
  。特征組合搜索問(wèn)題可以定義為搜索一個(gè)最優(yōu)子特征集的問(wèn)題:
  
  其中 F 是
  
  的原始特征集合,
  
  包含 F 所有原始特征以及基于 F 可生成的所有組合特征。
  但是,假設原始特征數為 d,則上述問(wèn)題中所有可能解的數量是
  
  ,搜索空間巨大。為了提高搜索效率,AutoCross 將搜索最優(yōu)子特征集的問(wèn)題轉換為用貪婪策略逐步構建較優(yōu)解的問(wèn)題。首先,AutoCross 考慮一個(gè)樹(shù)結構的搜索空間
 ?。▓D 3),其中每一個(gè)節點(diǎn)表示一個(gè)子特征集。之后,用集束搜索策略在
  上搜索較優(yōu)解。通過(guò)這種方法,AutoCross 只需要訪(fǎng)問(wèn)
  
  個(gè)候選解,極大地提高了搜索效率。AutoCross 的整體算法如算法 1 所示。
  
  
  算法 1 中的一個(gè)關(guān)鍵步驟是評估候選特征集。最直接的方法是用每個(gè)候選特征集訓練模型并評估其性能,但是這種方法計算代價(jià)巨大,難以在搜索過(guò)程中反復執行。為了提高特征集評估的效率,AutoCross 提出了逐域對數幾率回歸(field-wise logistic regression)和連續批訓練梯度下降(successive mini-batch gradient descent)方法。
  為了提高特征集評估效率,逐域對數幾率回歸作出兩種近似。首先,用特征集在對數幾率回歸模型上的表現近似最終將使用這個(gè)特征集的模型上的表現;其次,在考慮
  中一個(gè)節點(diǎn)的子節點(diǎn)時(shí),不改變該節點(diǎn)包含特征對應的權重(weight),僅訓練子節點(diǎn)新增特征的權重。
  圖 4 說(shuō)明了如何將逐域對數幾率回歸部署在參數服務(wù)器架構上。逐域對數幾率回歸與參數服務(wù)器的結合可以提高特征集評估的存儲效率、傳輸效率和計算效率。在逐域對數幾率回歸訓練結束后,AutoCross 計算訓練得模型的指標,并以此方法來(lái)評估每一個(gè)候選特征集。
  
  AutoCross 采用連續批訓練梯度下降方法進(jìn)一步提高特征集評估的效率。該方法借鑒 successive halving 算法 [2],認為每一個(gè)候選特征集是 multi-arm bandit 問(wèn)題中的一個(gè) arm,對一個(gè)特征集用一個(gè)數據塊進(jìn)行權重更新相當于拉了一次對應的 arm,其回報為該次訓練后的驗證集 AUC。
  具體算法見(jiàn)算法 2,算法 2 中唯一的參數是數據塊的數量 N。N 可以根據數據的大小和計算環(huán)境自適應地確定。在使用連續批訓練梯度下降時(shí),用戶(hù)不需要像使用傳統的 subsampling 方法一樣調整 mini-batch 的尺寸和采樣率。
  
  為了支持數值特征與離散特征的組合,AutoCross 在預處理時(shí)將數值特征離散化為離散特征。AutoCross 提出了多粒度離散化(multi-granularity discretization)方法,使得用戶(hù)不需要反復調整離散化的粒度。多粒度離散化思想簡(jiǎn)單:將每一個(gè)數值特征,根據不同粒度劃分為多個(gè)離散特征。然后采用逐域對數幾率回歸挑選出最優(yōu)的離散特征。多個(gè)劃分粒度既可以由用戶(hù)指定,也可以由 AutoCross 根據數據大小和計算環(huán)境來(lái)自適應地選擇,從而降低了用戶(hù)的使用難度。
  實(shí)驗結果
  該論文在十個(gè)數據集(五個(gè)公開(kāi)、五個(gè)實(shí)際業(yè)務(wù))上進(jìn)行了實(shí)驗。比較的方法包括:
  效果比較:如下表 3 所示,AC+LR 和 AC+W&D 在大部分數據集上的排名都在前兩位。這體現了 AutoCross 產(chǎn)生的特征不僅可以增強 LR 模型,也可以用于提高深度學(xué)習模型的性能,并且 AC+LR 和 AC+W&D 的效果都優(yōu)于 xDeepFM。如之前所說(shuō),xDeepFM 所生成的特征不能完全包含 AutoCross 生成的特征。這些結果體現出顯式生成高階組合特征的效果優(yōu)勢。
  
  高階特征的作用:見(jiàn)表 5 和圖 6。從中可以得出,高階組合特征可以有效提高模型性能。
  
  時(shí)間消耗:見(jiàn)表 6、圖 7(主要做展示用)。
  
  
  推斷延遲:見(jiàn)表 7。從中可以得出:AC+LR 的推斷速度比 AC+W&D、Deep、xDeepFM 快幾個(gè)數量級。這說(shuō)明 AutoCross 不僅可以提高模型表現,同時(shí)保證了很低的推斷延遲。
  
  參考文獻
  [1] J. Lian, X. Zhou, F. Zhang, Z. Chen, X. Xie, and G. Sun. 2018. xDeepFM: Com- bining Explicit and Implicit Feature Interactions for Recommender Systems. In International Conference on Knowledge Discovery & Data Mining.
  [2] K. Jamieson and A. Talwalkar. 2016. Non-stochastic best arm identification and hyperparameter optimization. In Artificial Intelligence and Statistics. 240–248.
  [3] O. Chapelle, E. Manavoglu, and R. Rosales. 2015. Simple and scalable response prediction for display advertising. ACM Transactions on Intelligent Systems and Technology (TIST) 5, 4 (2015), 61.

采集自動(dòng)組合格式,實(shí)現對管理員端不重復下載

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 116 次瀏覽 ? 2022-06-20 03:00 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合格式,實(shí)現對管理員端不重復下載
  采集自動(dòng)組合格式,實(shí)現對管理員端/服務(wù)端不重復下載。多種文件格式選擇,兼容ie9及以上版本。多種規格,可存儲電影,或原生字幕,兼容全平臺。支持組件化開(kāi)發(fā)。開(kāi)源地址:阿里云站點(diǎn)現階段,需要支持ie8/10/11+。支持的規格如下:7zip,bmi,internalspec,videocapacity,6esplit,bmispipe,sub-spec。注意ie11尚未支持ie9及以上。
  windows用戶(hù)如果喜歡原生字幕可以直接直接開(kāi)源megascript開(kāi)源字幕組開(kāi)源srt字幕
  開(kāi)源的東西,應該可以吧。貌似我們已經(jīng)用上了,據說(shuō)不錯。
  看上去已經(jīng)是歷史了,
  最新的chrome將支持,名為true-versionimport,見(jiàn)-version-import/此插件與edge瀏覽器配合的intel內核的html5視頻播放器??梢越鉀Q大部分視頻格式帶寬占用問(wèn)題。
  你有心去做啊,人家只想來(lái)分杯羹而已。
  其實(shí),你可以試試ffmpeg,ffmpeg--handle-temp-ms-name"microsoftwindowsmediatransfer"--version"0。180300"-input-case"video"-download-mode"blurry"就可以使用原生視頻格式了,不過(guò)貌似是需要安裝ffmpeg播放器和插件才能使用。
  ahr0cdovl3dlaxhpbi5xcs5jb20vci9ptr6tzqlmwtyvh0dywwrotvxry1q==(二維碼自動(dòng)識別) 查看全部

  采集自動(dòng)組合格式,實(shí)現對管理員端不重復下載
  采集自動(dòng)組合格式,實(shí)現對管理員端/服務(wù)端不重復下載。多種文件格式選擇,兼容ie9及以上版本。多種規格,可存儲電影,或原生字幕,兼容全平臺。支持組件化開(kāi)發(fā)。開(kāi)源地址:阿里云站點(diǎn)現階段,需要支持ie8/10/11+。支持的規格如下:7zip,bmi,internalspec,videocapacity,6esplit,bmispipe,sub-spec。注意ie11尚未支持ie9及以上。
  windows用戶(hù)如果喜歡原生字幕可以直接直接開(kāi)源megascript開(kāi)源字幕組開(kāi)源srt字幕
  開(kāi)源的東西,應該可以吧。貌似我們已經(jīng)用上了,據說(shuō)不錯。
  看上去已經(jīng)是歷史了,
  最新的chrome將支持,名為true-versionimport,見(jiàn)-version-import/此插件與edge瀏覽器配合的intel內核的html5視頻播放器??梢越鉀Q大部分視頻格式帶寬占用問(wèn)題。
  你有心去做啊,人家只想來(lái)分杯羹而已。
  其實(shí),你可以試試ffmpeg,ffmpeg--handle-temp-ms-name"microsoftwindowsmediatransfer"--version"0。180300"-input-case"video"-download-mode"blurry"就可以使用原生視頻格式了,不過(guò)貌似是需要安裝ffmpeg播放器和插件才能使用。
  ahr0cdovl3dlaxhpbi5xcs5jb20vci9ptr6tzqlmwtyvh0dywwrotvxry1q==(二維碼自動(dòng)識別)

重磅----東方財富研報自動(dòng)采集系統,附程序代碼

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 343 次瀏覽 ? 2022-06-13 12:00 ? 來(lái)自相關(guān)話(huà)題

  重磅----東方財富研報自動(dòng)采集系統,附程序代碼
  我們直接看數據,打開(kāi)東方財富研報界面。

  我們用東方財富個(gè)股研報為例子進(jìn)行講解,我們先獲取研報鏈接,這個(gè)很復雜,因為它沒(méi)有直接提供鏈接,研報鏈接需要組合出來(lái)。需要解析的數據,參考代碼。

  我們看程序運行的效果,因為這個(gè)獲取比較復雜,涉及東西很大。
  
  程序運行的圖形界面

  比如我們點(diǎn)擊個(gè)股研報采集,輸入要采集文件的多少,比如30
  
  我們看采集的效果,不會(huì )重復采集。

  我們看保存下來(lái)的文件,自動(dòng)分類(lèi)。
  
  
  我們隨便打開(kāi)一個(gè)文件。

  程序代碼
  import pandas as pdfrom bs4 import BeautifulSoupfrom xml import etreeimport jsonimport jsonpathfrom fpdf import FPDFimport requestsimport osimport timeimport PySimpleGUI as sgimport tkinter as tkfrom openpyxl import load_workbookimport matplotlib.pyplot as pltroot=tk.Tk()root.wm_title('東方財富研報采集')root.geometry('600x500')menmenu=tk.Menu(root)report_down=tk.Menu(menmenu)menmenu.add_cascade(label='東方財富研報自動(dòng)采集',menu=report_down)#東方財富研報個(gè)股采集#檢測主文件夾,在桌面main_name='東方財富'main_list=os.listdir(r'C:\Users\Administrator\Desktop')if main_name in main_list: print('{}文件夾已經(jīng)存在'.format(main_name)) #建立文件夾else: os.makedirs(r'C:\Users\Administrator\Desktop\{}'.format(main_name))#采集不分類(lèi)個(gè)股的研報def stock_now_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1335389', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'0', 'orgCode':'', 'code':'*', 'rcode':'', '_':'1653745465030' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='個(gè)股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#行業(yè)研報def industry_report_down_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1451407', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'1', 'orgCode':'', 'rcode':'', '_':'1654947298302' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='行業(yè)研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#新股研報def new_stock_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/newStockList?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable3277848', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'2', 'fields':'', 'qType':'4', 'p':'2', 'pageNum':'2', 'pageNumber':'2', '_':'1654947808283' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='新股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#策略報告def cl_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable6714376', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'2', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654948156323' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='策略研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#宏觀(guān)研報def hg_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable7655083', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'3', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654947750723' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='宏觀(guān)經(jīng)濟研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#券商晨報def jscb_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable2280662', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'4', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654949598388' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='券商晨報研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() #輸出文件 pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))report_down.add_command(label='東方財富個(gè)股研報采集',command=stock_now_report_pdf)report_down.add_command(label='東方財富行業(yè)研報采集',command=industry_report_down_pdf)report_down.add_command(label='東方財富新股研報采集',command=new_stock_report_pdf)report_down.add_command(label='東方財富策略研報采集',command=cl_report_pdf_down)report_down.add_command(label='東方財富宏觀(guān)研報采集',command=hg_report_pdf_down)report_down.add_command(label='東方財富券商晨報采集',command=jscb_report_pdf_down)root['menu']=menmenuroot.mainloop()<br /> 查看全部

  重磅----東方財富研報自動(dòng)采集系統,附程序代碼
  我們直接看數據,打開(kāi)東方財富研報界面。

  我們用東方財富個(gè)股研報為例子進(jìn)行講解,我們先獲取研報鏈接,這個(gè)很復雜,因為它沒(méi)有直接提供鏈接,研報鏈接需要組合出來(lái)。需要解析的數據,參考代碼。

  我們看程序運行的效果,因為這個(gè)獲取比較復雜,涉及東西很大。
  
  程序運行的圖形界面

  比如我們點(diǎn)擊個(gè)股研報采集,輸入要采集文件的多少,比如30
  
  我們看采集的效果,不會(huì )重復采集。

  我們看保存下來(lái)的文件,自動(dòng)分類(lèi)。
  
  
  我們隨便打開(kāi)一個(gè)文件。

  程序代碼
  import pandas as pdfrom bs4 import BeautifulSoupfrom xml import etreeimport jsonimport jsonpathfrom fpdf import FPDFimport requestsimport osimport timeimport PySimpleGUI as sgimport tkinter as tkfrom openpyxl import load_workbookimport matplotlib.pyplot as pltroot=tk.Tk()root.wm_title('東方財富研報采集')root.geometry('600x500')menmenu=tk.Menu(root)report_down=tk.Menu(menmenu)menmenu.add_cascade(label='東方財富研報自動(dòng)采集',menu=report_down)#東方財富研報個(gè)股采集#檢測主文件夾,在桌面main_name='東方財富'main_list=os.listdir(r'C:\Users\Administrator\Desktop')if main_name in main_list: print('{}文件夾已經(jīng)存在'.format(main_name)) #建立文件夾else: os.makedirs(r'C:\Users\Administrator\Desktop\{}'.format(main_name))#采集不分類(lèi)個(gè)股的研報def stock_now_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1335389', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'0', 'orgCode':'', 'code':'*', 'rcode':'', '_':'1653745465030' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='個(gè)股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#行業(yè)研報def industry_report_down_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1451407', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'1', 'orgCode':'', 'rcode':'', '_':'1654947298302' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='行業(yè)研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#新股研報def new_stock_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/newStockList?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable3277848', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'2', 'fields':'', 'qType':'4', 'p':'2', 'pageNum':'2', 'pageNumber':'2', '_':'1654947808283' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='新股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#策略報告def cl_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable6714376', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'2', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654948156323' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='策略研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#宏觀(guān)研報def hg_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable7655083', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'3', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654947750723' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='宏觀(guān)經(jīng)濟研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#券商晨報def jscb_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable2280662', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'4', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654949598388' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='券商晨報研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() #輸出文件 pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))report_down.add_command(label='東方財富個(gè)股研報采集',command=stock_now_report_pdf)report_down.add_command(label='東方財富行業(yè)研報采集',command=industry_report_down_pdf)report_down.add_command(label='東方財富新股研報采集',command=new_stock_report_pdf)report_down.add_command(label='東方財富策略研報采集',command=cl_report_pdf_down)report_down.add_command(label='東方財富宏觀(guān)研報采集',command=hg_report_pdf_down)report_down.add_command(label='東方財富券商晨報采集',command=jscb_report_pdf_down)root['menu']=menmenuroot.mainloop()<br />

采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 89 次瀏覽 ? 2022-06-11 17:06 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層
  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層均為灰度圖層(黑白值為
  1),雙擊圖層菜單組合-設置值.灰度值可以使用:rgb(255,255,25
  5),cmyk(0-255,0,
  0)等來(lái)設置。圖層信息中可以訪(fǎng)問(wèn)圖層所有所屬的圖層.圖層名.圖層的顯示縮略圖(設置好顯示縮略圖后,可以先點(diǎn)擊該圖層,
  gh2要設置圖層前先用裁剪畫(huà)線(xiàn)
  你好,globalautodetect在外層使用到globalautodetect,一般只用在最外層,前提是你要先判斷一下這個(gè)外層是不是有效的,如果不是有效的globalautodetect就不會(huì )被內部識別,這時(shí)候才有權外部自動(dòng)去檢測這個(gè)usagement,那么這個(gè)內層有效不有效的區別是什么呢?是不是看它占有的內存占有的量,如果是少的話(huà),那么就沒(méi)有區別,如果占用的是很多的話(huà),那么就要在內層上加一層vroposeoutput給外層,這樣才會(huì )進(jìn)一步精確。
  內層image為24x36,格式為(24dp)~48dp之間都行,每個(gè)物體都是用rayfill的。為什么呢??jì)葘觟mage是24dp,外層texture數量為(48dp)~96dp。stage1內層只有g(shù)rid,沒(méi)有textures,如果為了要實(shí)現地形可以設置stage1grid中的texturesize為300dp。
  為什么外層和內層不要放在一起,因為外層stage不全,內層需要包裹住外層,這樣內層可以實(shí)現使用globalautodetect去實(shí)現texture的局部識別。 查看全部

  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層
  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層均為灰度圖層(黑白值為
  1),雙擊圖層菜單組合-設置值.灰度值可以使用:rgb(255,255,25
  5),cmyk(0-255,0,
  0)等來(lái)設置。圖層信息中可以訪(fǎng)問(wèn)圖層所有所屬的圖層.圖層名.圖層的顯示縮略圖(設置好顯示縮略圖后,可以先點(diǎn)擊該圖層,
  gh2要設置圖層前先用裁剪畫(huà)線(xiàn)
  你好,globalautodetect在外層使用到globalautodetect,一般只用在最外層,前提是你要先判斷一下這個(gè)外層是不是有效的,如果不是有效的globalautodetect就不會(huì )被內部識別,這時(shí)候才有權外部自動(dòng)去檢測這個(gè)usagement,那么這個(gè)內層有效不有效的區別是什么呢?是不是看它占有的內存占有的量,如果是少的話(huà),那么就沒(méi)有區別,如果占用的是很多的話(huà),那么就要在內層上加一層vroposeoutput給外層,這樣才會(huì )進(jìn)一步精確。
  內層image為24x36,格式為(24dp)~48dp之間都行,每個(gè)物體都是用rayfill的。為什么呢??jì)葘觟mage是24dp,外層texture數量為(48dp)~96dp。stage1內層只有g(shù)rid,沒(méi)有textures,如果為了要實(shí)現地形可以設置stage1grid中的texturesize為300dp。
  為什么外層和內層不要放在一起,因為外層stage不全,內層需要包裹住外層,這樣內層可以實(shí)現使用globalautodetect去實(shí)現texture的局部識別。

極速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,讓企業(yè)獲客走出困境

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 72 次瀏覽 ? 2022-06-04 11:44 ? 來(lái)自相關(guān)話(huà)題

  極速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,讓企業(yè)獲客走出困境
  在將產(chǎn)品或服務(wù)賣(mài)給客戶(hù)之前,第一步是要挖掘銷(xiāo)售線(xiàn)索,銷(xiāo)售線(xiàn)索挖掘的數量、質(zhì)量、效率直接影響后期的銷(xiāo)售額。
  創(chuàng )建一條銷(xiāo)售線(xiàn)索廣告需要手動(dòng)匹配視頻、文案、定向包、落地頁(yè),設置出價(jià)策略,配置監測鏈接,極大的消耗優(yōu)化師的精力,如果能自動(dòng)快速的創(chuàng )建銷(xiāo)售線(xiàn)索廣告將有助于優(yōu)化師快速起量、放量。
  極速創(chuàng )建企業(yè)獲客新助力
  AdsDesk新增的快手平臺銷(xiāo)售線(xiàn)索收集廣告支持極速創(chuàng )建,提高線(xiàn)索獲取的效率。
  
  上下滑大屏廣告、激勵視頻廣告、開(kāi)屏廣告
  AdsDesk的極速創(chuàng )建將廣告投放配置按照業(yè)務(wù)需要分為三個(gè)區域:基礎投放設置、叉乘要素配置、基礎規則及名稱(chēng)配置,三個(gè)區域分別承載了投放策略配置、創(chuàng )意組合、名稱(chēng)配置的功能,各項需要統一管理,集中調配,例如在叉乘要素配置中聚合了定向包、創(chuàng )意素材組、創(chuàng )意文案三個(gè)選項,通過(guò)叉乘的組合方式,可一次性創(chuàng )建200條廣告,實(shí)現了廣告創(chuàng )意集中選擇,自動(dòng)匹配,快速創(chuàng )建,數據即時(shí)顯示,修改快捷,廣告統一預覽。
  
  如果說(shuō)素材是展示櫥窗,那落地頁(yè)就相當于門(mén)店導購,主要承載了傳遞產(chǎn)品價(jià)值、促進(jìn)用戶(hù)信息留存的功能,高質(zhì)量數據有助于幫助銷(xiāo)售人員做后續的跟進(jìn)和轉化,通過(guò)單賬號內落地頁(yè)按廣告計劃或廣告組的分配,靈活組合,大量創(chuàng )建測試計劃,自動(dòng)生成單一變量計劃,觸動(dòng)多樣化人群,優(yōu)選投放效果最佳組合,提高線(xiàn)索收集效率。
  
  快手-落地頁(yè)管理支持管理自有落地頁(yè)和第三方監測,在投放對應自有落地頁(yè)時(shí),自動(dòng)配置對應監測鏈接,搭配落地頁(yè)通配符,結合開(kāi)放的投放策略和叉乘模式的創(chuàng )意組合,實(shí)現數據全鏈路留存、追蹤,持續優(yōu)化投放效果,提高線(xiàn)索質(zhì)量。
  
  場(chǎng)景:極速創(chuàng )建解放生產(chǎn)力,廣告組合快速測試
  某車(chē)企公司,希望在快手平臺投放線(xiàn)索廣告,以此獲取更多用戶(hù)數量并形成轉化,幫助公司提升收益。在廣告測試階段,車(chē)企優(yōu)化師首先需要手動(dòng)創(chuàng )建廣告計劃,他們發(fā)現廣告創(chuàng )建中需要逐一進(jìn)行定向、出價(jià)、投放策略等多個(gè)配置,搭建一條計劃就需要耗費大量的時(shí)間和精力。除了創(chuàng )建廣告,為了精準觸達目標用戶(hù),還需要搭建多個(gè)廣告落地頁(yè)進(jìn)行測試,在人力有限的情況下,車(chē)企公司優(yōu)化師的效率根本無(wú)法滿(mǎn)足每日廣告投放需求,獲取的銷(xiāo)售線(xiàn)索數量和質(zhì)量都差強人意。
  車(chē)企優(yōu)化師借助AdsDesk在快手平臺極速創(chuàng )建銷(xiāo)售線(xiàn)索廣告后,系統對不同的廣告要素進(jìn)行自動(dòng)化匹配和叉乘,實(shí)現快速批量創(chuàng )建和配置完成多個(gè)廣告,省去了重復而繁瑣的手動(dòng)工作,大大提升廣告創(chuàng )建效率。在廣告落地頁(yè)方面,優(yōu)化師可通過(guò)AdsDesk平臺自動(dòng)配置每個(gè)落地頁(yè)監測鏈接,結合開(kāi)放的投放策略和叉乘模式與廣告創(chuàng )意進(jìn)行自由組合,能夠在廣告投放中快速測試出優(yōu)質(zhì)的廣告和落地頁(yè)版本。車(chē)企公司優(yōu)化師在使用AdsDesk后發(fā)現,自己從廣告創(chuàng )建工作中釋放后,有更多時(shí)間優(yōu)化廣告和落地頁(yè),持續提升廣告投放效果,獲取的銷(xiāo)售線(xiàn)索質(zhì)量有了質(zhì)的飛躍,企業(yè)收益也得到了明顯提升。
  一款產(chǎn)品的推廣往往伴隨著(zhù)市場(chǎng)活動(dòng)和公司戰略,在某個(gè)特定時(shí)間節點(diǎn)需要快速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,優(yōu)化師可以利用AdsDesk快手端的極速創(chuàng )建功能,批量創(chuàng )建廣告快速投放,搶占先機,后續根據落地頁(yè)的監測鏈接調整創(chuàng )意組合,讓廣告起量快人一步。
  
   查看全部

  極速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,讓企業(yè)獲客走出困境
  在將產(chǎn)品或服務(wù)賣(mài)給客戶(hù)之前,第一步是要挖掘銷(xiāo)售線(xiàn)索,銷(xiāo)售線(xiàn)索挖掘的數量、質(zhì)量、效率直接影響后期的銷(xiāo)售額。
  創(chuàng )建一條銷(xiāo)售線(xiàn)索廣告需要手動(dòng)匹配視頻、文案、定向包、落地頁(yè),設置出價(jià)策略,配置監測鏈接,極大的消耗優(yōu)化師的精力,如果能自動(dòng)快速的創(chuàng )建銷(xiāo)售線(xiàn)索廣告將有助于優(yōu)化師快速起量、放量。
  極速創(chuàng )建企業(yè)獲客新助力
  AdsDesk新增的快手平臺銷(xiāo)售線(xiàn)索收集廣告支持極速創(chuàng )建,提高線(xiàn)索獲取的效率。
  
  上下滑大屏廣告、激勵視頻廣告、開(kāi)屏廣告
  AdsDesk的極速創(chuàng )建將廣告投放配置按照業(yè)務(wù)需要分為三個(gè)區域:基礎投放設置、叉乘要素配置、基礎規則及名稱(chēng)配置,三個(gè)區域分別承載了投放策略配置、創(chuàng )意組合、名稱(chēng)配置的功能,各項需要統一管理,集中調配,例如在叉乘要素配置中聚合了定向包、創(chuàng )意素材組、創(chuàng )意文案三個(gè)選項,通過(guò)叉乘的組合方式,可一次性創(chuàng )建200條廣告,實(shí)現了廣告創(chuàng )意集中選擇,自動(dòng)匹配,快速創(chuàng )建,數據即時(shí)顯示,修改快捷,廣告統一預覽。
  
  如果說(shuō)素材是展示櫥窗,那落地頁(yè)就相當于門(mén)店導購,主要承載了傳遞產(chǎn)品價(jià)值、促進(jìn)用戶(hù)信息留存的功能,高質(zhì)量數據有助于幫助銷(xiāo)售人員做后續的跟進(jìn)和轉化,通過(guò)單賬號內落地頁(yè)按廣告計劃或廣告組的分配,靈活組合,大量創(chuàng )建測試計劃,自動(dòng)生成單一變量計劃,觸動(dòng)多樣化人群,優(yōu)選投放效果最佳組合,提高線(xiàn)索收集效率。
  
  快手-落地頁(yè)管理支持管理自有落地頁(yè)和第三方監測,在投放對應自有落地頁(yè)時(shí),自動(dòng)配置對應監測鏈接,搭配落地頁(yè)通配符,結合開(kāi)放的投放策略和叉乘模式的創(chuàng )意組合,實(shí)現數據全鏈路留存、追蹤,持續優(yōu)化投放效果,提高線(xiàn)索質(zhì)量。
  
  場(chǎng)景:極速創(chuàng )建解放生產(chǎn)力,廣告組合快速測試
  某車(chē)企公司,希望在快手平臺投放線(xiàn)索廣告,以此獲取更多用戶(hù)數量并形成轉化,幫助公司提升收益。在廣告測試階段,車(chē)企優(yōu)化師首先需要手動(dòng)創(chuàng )建廣告計劃,他們發(fā)現廣告創(chuàng )建中需要逐一進(jìn)行定向、出價(jià)、投放策略等多個(gè)配置,搭建一條計劃就需要耗費大量的時(shí)間和精力。除了創(chuàng )建廣告,為了精準觸達目標用戶(hù),還需要搭建多個(gè)廣告落地頁(yè)進(jìn)行測試,在人力有限的情況下,車(chē)企公司優(yōu)化師的效率根本無(wú)法滿(mǎn)足每日廣告投放需求,獲取的銷(xiāo)售線(xiàn)索數量和質(zhì)量都差強人意。
  車(chē)企優(yōu)化師借助AdsDesk在快手平臺極速創(chuàng )建銷(xiāo)售線(xiàn)索廣告后,系統對不同的廣告要素進(jìn)行自動(dòng)化匹配和叉乘,實(shí)現快速批量創(chuàng )建和配置完成多個(gè)廣告,省去了重復而繁瑣的手動(dòng)工作,大大提升廣告創(chuàng )建效率。在廣告落地頁(yè)方面,優(yōu)化師可通過(guò)AdsDesk平臺自動(dòng)配置每個(gè)落地頁(yè)監測鏈接,結合開(kāi)放的投放策略和叉乘模式與廣告創(chuàng )意進(jìn)行自由組合,能夠在廣告投放中快速測試出優(yōu)質(zhì)的廣告和落地頁(yè)版本。車(chē)企公司優(yōu)化師在使用AdsDesk后發(fā)現,自己從廣告創(chuàng )建工作中釋放后,有更多時(shí)間優(yōu)化廣告和落地頁(yè),持續提升廣告投放效果,獲取的銷(xiāo)售線(xiàn)索質(zhì)量有了質(zhì)的飛躍,企業(yè)收益也得到了明顯提升。
  一款產(chǎn)品的推廣往往伴隨著(zhù)市場(chǎng)活動(dòng)和公司戰略,在某個(gè)特定時(shí)間節點(diǎn)需要快速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,優(yōu)化師可以利用AdsDesk快手端的極速創(chuàng )建功能,批量創(chuàng )建廣告快速投放,搶占先機,后續根據落地頁(yè)的監測鏈接調整創(chuàng )意組合,讓廣告起量快人一步。
  
  

采集自動(dòng)組合的種子地址提取cookie一般就是設定

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 126 次瀏覽 ? 2022-05-30 10:12 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合的種子地址提取cookie一般就是設定
  采集自動(dòng)組合的種子地址提取cookie一般就是設定自動(dòng)組合好種子地址這一串參數,
  你可以在組合種子設置中對cookie進(jìn)行設置我之前用過(guò)這個(gè)工具,優(yōu)點(diǎn)是支持多種地址,
  我看了看論壇上面的帖子,感覺(jué)你是沒(méi)有注意到這個(gè)東西,自動(dòng)復制地址過(guò)去獲取的東西可能和你設置的過(guò)去的不一樣,一個(gè)是你設置的是怎么生成那個(gè)種子,另一個(gè)是網(wǎng)絡(luò )請求的src是怎么返回的,百度搜索手機秒傳云服務(wù),有答案。
  statichostmixedhostregistryname都可以了解一下。
  我試了各種方法,都設置了cookie,但是都沒(méi)能取到?;蛘哒f(shuō)api本身不知道對get請求的設置就搞錯了結果。目前其他方式都嘗試過(guò),都嘗試的不好用。最后我自己改寫(xiě)了這個(gè)程序,通過(guò)重寫(xiě)cookie實(shí)現的api。過(guò)去的是沒(méi)有獲取到,現在是可以了!復制獲取的結果就可以再post的請求中顯示出來(lái)了。修改前復制獲取的結果和修改后。
  可以訪(fǎng)問(wèn)我的源碼github-hn-f39/piwebhttp:chooseyourstyleofspringframework,whichisbecomingandrewnguyen'sgoforthenextdecade。thisframeworkisalargescaleapplicationthatrunsonreact,vue,emberandegg。
  differentlyitrequiresdeeplearningengineandthesafetyandportabilityofwebcomponents。 查看全部

  采集自動(dòng)組合的種子地址提取cookie一般就是設定
  采集自動(dòng)組合的種子地址提取cookie一般就是設定自動(dòng)組合好種子地址這一串參數,
  你可以在組合種子設置中對cookie進(jìn)行設置我之前用過(guò)這個(gè)工具,優(yōu)點(diǎn)是支持多種地址,
  我看了看論壇上面的帖子,感覺(jué)你是沒(méi)有注意到這個(gè)東西,自動(dòng)復制地址過(guò)去獲取的東西可能和你設置的過(guò)去的不一樣,一個(gè)是你設置的是怎么生成那個(gè)種子,另一個(gè)是網(wǎng)絡(luò )請求的src是怎么返回的,百度搜索手機秒傳云服務(wù),有答案。
  statichostmixedhostregistryname都可以了解一下。
  我試了各種方法,都設置了cookie,但是都沒(méi)能取到?;蛘哒f(shuō)api本身不知道對get請求的設置就搞錯了結果。目前其他方式都嘗試過(guò),都嘗試的不好用。最后我自己改寫(xiě)了這個(gè)程序,通過(guò)重寫(xiě)cookie實(shí)現的api。過(guò)去的是沒(méi)有獲取到,現在是可以了!復制獲取的結果就可以再post的請求中顯示出來(lái)了。修改前復制獲取的結果和修改后。
  可以訪(fǎng)問(wèn)我的源碼github-hn-f39/piwebhttp:chooseyourstyleofspringframework,whichisbecomingandrewnguyen'sgoforthenextdecade。thisframeworkisalargescaleapplicationthatrunsonreact,vue,emberandegg。
  differentlyitrequiresdeeplearningengineandthesafetyandportabilityofwebcomponents。

最新版:快客QQ批量加好友怎么下載試試吧?(組圖)

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 197 次瀏覽 ? 2022-10-16 07:16 ? 來(lái)自相關(guān)話(huà)題

  最新版:快客QQ批量加好友怎么下載試試吧?(組圖)
  QQ快速批量添加好友是一款專(zhuān)為營(yíng)銷(xiāo)QQ好友而設計的軟件。軟件支持批量QQ輪播功能,批量加好友,批量發(fā)群消息,并配備隨機功能,最大程度模擬真實(shí)操作,充分利用QQ好友的限制。一種少、直接、準確、高效的QQ營(yíng)銷(xiāo)模式。有需要的朋友可以下載試試!
  軟件說(shuō)明:
  1.驗證碼識別方式全面
  無(wú)需識別即可跳過(guò),可手動(dòng)輸入,驗證碼平臺自動(dòng)識別(注冊充值,填寫(xiě)賬號密碼即可),實(shí)現自動(dòng)無(wú)人掛機,省心
  2.全能換IP模塊有沒(méi)有一鍵軟件,可以自定義換IP的時(shí)機
  軟件包括ADSL寬帶換IP、路由器換IP、91VPN換IP等,IP不能當天重復使用。全面的IP更換方式,可以滿(mǎn)足不同客戶(hù)的需求,也是規避騰訊限制不可缺少的策略(點(diǎn)擊觀(guān)看更換IP,驗證碼自動(dòng)識別通用設置-視頻教程)
  3.軟件功能強大,參數設置非常靈活全面
  您可以自行設置循環(huán)輪數、各種時(shí)間間隔、各種操作次數,輕松應對騰訊在不同時(shí)間段的不同限制策略。
  4.添加好友驗證信息,支持多種貼心自動(dòng)保存功能
  
  自己寫(xiě)N條驗證信息,加上slogan,有沒(méi)有什么軟件可以一鍵加人?軟件可以隨意調用,避開(kāi)騰訊的限制策略之一
  5.支持好友多條消息群發(fā),支持圖片,支持3G群發(fā)和客戶(hù)端群發(fā)
  可以自己寫(xiě)N條消息的內容,發(fā)送圖片,插入隨機干擾變量,比如隨機數、隨機漢字、隨機字母、隨機表情等,可以明文發(fā)送,也可以轉換它們分為文字和發(fā)送圖片(可以自定義圖片的背景顏色),文字顏色,圖片寬度,高度),兩者組合可以隨機發(fā)送。這是逃避騰訊限制的另一種方式
  6.支持3GQQ加好友和客戶(hù)端模擬加好友
  2種模式靈活應用,滿(mǎn)足不同客戶(hù)的不同喜好!3GQQ加好友可以后臺運行,不影響電影使用;
  7. 新增圈內隨機加好友功能
  軟件會(huì )自動(dòng)隨機選擇一些行業(yè)、學(xué)校、地區等相同或相近的QQ好友。
  8.開(kāi)始任務(wù)前確認號碼
  軟件在登錄客戶(hù)端前會(huì )自動(dòng)驗證號碼的有效性,如密碼是否正確、號碼是否正確、是否受限等。
  
  9、軟件自動(dòng)控制QQ客戶(hù)端群發(fā)消息
  軟件自動(dòng)登錄,自動(dòng)隨機選擇好友發(fā)送,完全模擬真實(shí)的人工操作,有效降低號碼被封號或被封號的可能性。
  10.可以導入自己的小號和QQ批量添加,軟件會(huì )自動(dòng)保存
  每次自動(dòng)保存Q加量和Q加狀態(tài),自動(dòng)記錄群消息和好友數。
  11.自動(dòng)記住你的QQ列表進(jìn)度,重啟軟件繼續之前的進(jìn)度
  如果要從頭開(kāi)始,請選擇第一行,或設置為從第一行開(kāi)始工作
  12、快速查詢(xún)對方QQ是否可以不驗證加好友(即單向好友):你懂的
  全網(wǎng)難得一見(jiàn)的功能,千萬(wàn)不要錯過(guò)!
  13. 增加好友的增強模式。年齡較大的朋友,比如2歲以上的朋友,一次最多可以加100個(gè)朋友。如果你需要很多朋友,快點(diǎn)
  教程:什么貓咪最受歡迎?Python爬取全網(wǎng)貓咪圖片,哪一款是你最?lèi)?ài)的
  文章目錄
  前言
  采集目標
  工具準備
  開(kāi)發(fā)工具:pycharm
  開(kāi)發(fā)環(huán)境:python3.7,Windows11 使用工具包:requests
  
  項目構思分析
  做一個(gè)爬蟲(chóng)案例,首先要明確自己的采集目標,白白,這里采集就是當前網(wǎng)頁(yè)的所有圖片信息,有了目標之后,再梳理一下你的自己的代碼編寫(xiě)過(guò)程,一個(gè)爬蟲(chóng)的基本四個(gè)步驟:
  第一步:找到數據地址
  加載數據一般有兩種方式,一種是靜態(tài)的,一種是動(dòng)態(tài)的。當前網(wǎng)頁(yè)的數據在數據向下刷新時(shí)不斷加載??梢耘袛鄶祿虞d的方式是動(dòng)態(tài)的,需要瀏覽器抓取動(dòng)態(tài)數據。工具獲取,右鍵點(diǎn)擊查看,或者按f12的快捷鍵找到加載的數據地址
  找到對應的數據地址,點(diǎn)擊彈出的界面,然后點(diǎn)擊預覽。預覽打開(kāi)的頁(yè)面就是展示給我們的數據。當有很多數據時(shí),我們可以通過(guò)他查看。獲取的數據是通過(guò)URL獲取的,URL數據在請求中。,它將網(wǎng)絡(luò )請求發(fā)送到 URL
  第二步:代碼發(fā)送網(wǎng)絡(luò )請求
  
  有許多用于發(fā)送請求的工具包。在入門(mén)階段,他們大多使用 requests 工具包。Requests是第三方工具包,需要下載: pip install requests 發(fā)送請求時(shí),需要通過(guò)代碼注意我們的請求,web服務(wù)器會(huì )根據http請求。該消息用于區分是瀏覽器還是爬蟲(chóng)。爬蟲(chóng)不流行。爬蟲(chóng)代碼需要偽裝自己。發(fā)送請求時(shí)與 headers 一起傳輸的數據類(lèi)型是字典鍵值對。ua 字段對于瀏覽器來(lái)說(shuō)非常重要。身份證
  第 3 步:提取數據
  當前獲取的數據為動(dòng)態(tài)數據。動(dòng)態(tài)數據和動(dòng)態(tài)數據一般都是json數據。json數據可以直接通過(guò)jsonpath提取,也可以直接轉換成字典。通過(guò)Python進(jìn)行提取的最終目的是提取圖片的url地址。
  提取新地址后,需要再次向該 URL 發(fā)送請求。我們需要的是圖像數據。鏈接一般存儲在數據中。發(fā)送請求,獲取圖片對應的二進(jìn)制數據。
  第 4 步:保存數據
  獲取數據后,存儲數據,選擇存儲數據的位置,選擇寫(xiě)入方式。我們獲取的數據是二進(jìn)制數據,文件訪(fǎng)問(wèn)方式使用的是wb。只需將獲取的圖片寫(xiě)入數據即可。后綴需要是圖像末尾的后綴。您可以選擇用標題命名,或使用 URL 的后面部分來(lái)命名。新手小白想要更輕松地學(xué)習Python基礎、Python爬蟲(chóng)、Web開(kāi)發(fā)、大數據、數據分析、人工智能等技術(shù),這里分享系統教學(xué)資源,聯(lián)系我Wei X:762459510【教程/工具/方法】 / 解惑] 查看全部

  最新版:快客QQ批量加好友怎么下載試試吧?(組圖)
  QQ快速批量添加好友是一款專(zhuān)為營(yíng)銷(xiāo)QQ好友而設計的軟件。軟件支持批量QQ輪播功能,批量加好友,批量發(fā)群消息,并配備隨機功能,最大程度模擬真實(shí)操作,充分利用QQ好友的限制。一種少、直接、準確、高效的QQ營(yíng)銷(xiāo)模式。有需要的朋友可以下載試試!
  軟件說(shuō)明:
  1.驗證碼識別方式全面
  無(wú)需識別即可跳過(guò),可手動(dòng)輸入,驗證碼平臺自動(dòng)識別(注冊充值,填寫(xiě)賬號密碼即可),實(shí)現自動(dòng)無(wú)人掛機,省心
  2.全能換IP模塊有沒(méi)有一鍵軟件,可以自定義換IP的時(shí)機
  軟件包括ADSL寬帶換IP、路由器換IP、91VPN換IP等,IP不能當天重復使用。全面的IP更換方式,可以滿(mǎn)足不同客戶(hù)的需求,也是規避騰訊限制不可缺少的策略(點(diǎn)擊觀(guān)看更換IP,驗證碼自動(dòng)識別通用設置-視頻教程)
  3.軟件功能強大,參數設置非常靈活全面
  您可以自行設置循環(huán)輪數、各種時(shí)間間隔、各種操作次數,輕松應對騰訊在不同時(shí)間段的不同限制策略。
  4.添加好友驗證信息,支持多種貼心自動(dòng)保存功能
  
  自己寫(xiě)N條驗證信息,加上slogan,有沒(méi)有什么軟件可以一鍵加人?軟件可以隨意調用,避開(kāi)騰訊的限制策略之一
  5.支持好友多條消息群發(fā),支持圖片,支持3G群發(fā)和客戶(hù)端群發(fā)
  可以自己寫(xiě)N條消息的內容,發(fā)送圖片,插入隨機干擾變量,比如隨機數、隨機漢字、隨機字母、隨機表情等,可以明文發(fā)送,也可以轉換它們分為文字和發(fā)送圖片(可以自定義圖片的背景顏色),文字顏色,圖片寬度,高度),兩者組合可以隨機發(fā)送。這是逃避騰訊限制的另一種方式
  6.支持3GQQ加好友和客戶(hù)端模擬加好友
  2種模式靈活應用,滿(mǎn)足不同客戶(hù)的不同喜好!3GQQ加好友可以后臺運行,不影響電影使用;
  7. 新增圈內隨機加好友功能
  軟件會(huì )自動(dòng)隨機選擇一些行業(yè)、學(xué)校、地區等相同或相近的QQ好友。
  8.開(kāi)始任務(wù)前確認號碼
  軟件在登錄客戶(hù)端前會(huì )自動(dòng)驗證號碼的有效性,如密碼是否正確、號碼是否正確、是否受限等。
  
  9、軟件自動(dòng)控制QQ客戶(hù)端群發(fā)消息
  軟件自動(dòng)登錄,自動(dòng)隨機選擇好友發(fā)送,完全模擬真實(shí)的人工操作,有效降低號碼被封號或被封號的可能性。
  10.可以導入自己的小號和QQ批量添加,軟件會(huì )自動(dòng)保存
  每次自動(dòng)保存Q加量和Q加狀態(tài),自動(dòng)記錄群消息和好友數。
  11.自動(dòng)記住你的QQ列表進(jìn)度,重啟軟件繼續之前的進(jìn)度
  如果要從頭開(kāi)始,請選擇第一行,或設置為從第一行開(kāi)始工作
  12、快速查詢(xún)對方QQ是否可以不驗證加好友(即單向好友):你懂的
  全網(wǎng)難得一見(jiàn)的功能,千萬(wàn)不要錯過(guò)!
  13. 增加好友的增強模式。年齡較大的朋友,比如2歲以上的朋友,一次最多可以加100個(gè)朋友。如果你需要很多朋友,快點(diǎn)
  教程:什么貓咪最受歡迎?Python爬取全網(wǎng)貓咪圖片,哪一款是你最?lèi)?ài)的
  文章目錄
  前言
  采集目標
  工具準備
  開(kāi)發(fā)工具:pycharm
  開(kāi)發(fā)環(huán)境:python3.7,Windows11 使用工具包:requests
  
  項目構思分析
  做一個(gè)爬蟲(chóng)案例,首先要明確自己的采集目標,白白,這里采集就是當前網(wǎng)頁(yè)的所有圖片信息,有了目標之后,再梳理一下你的自己的代碼編寫(xiě)過(guò)程,一個(gè)爬蟲(chóng)的基本四個(gè)步驟:
  第一步:找到數據地址
  加載數據一般有兩種方式,一種是靜態(tài)的,一種是動(dòng)態(tài)的。當前網(wǎng)頁(yè)的數據在數據向下刷新時(shí)不斷加載??梢耘袛鄶祿虞d的方式是動(dòng)態(tài)的,需要瀏覽器抓取動(dòng)態(tài)數據。工具獲取,右鍵點(diǎn)擊查看,或者按f12的快捷鍵找到加載的數據地址
  找到對應的數據地址,點(diǎn)擊彈出的界面,然后點(diǎn)擊預覽。預覽打開(kāi)的頁(yè)面就是展示給我們的數據。當有很多數據時(shí),我們可以通過(guò)他查看。獲取的數據是通過(guò)URL獲取的,URL數據在請求中。,它將網(wǎng)絡(luò )請求發(fā)送到 URL
  第二步:代碼發(fā)送網(wǎng)絡(luò )請求
  
  有許多用于發(fā)送請求的工具包。在入門(mén)階段,他們大多使用 requests 工具包。Requests是第三方工具包,需要下載: pip install requests 發(fā)送請求時(shí),需要通過(guò)代碼注意我們的請求,web服務(wù)器會(huì )根據http請求。該消息用于區分是瀏覽器還是爬蟲(chóng)。爬蟲(chóng)不流行。爬蟲(chóng)代碼需要偽裝自己。發(fā)送請求時(shí)與 headers 一起傳輸的數據類(lèi)型是字典鍵值對。ua 字段對于瀏覽器來(lái)說(shuō)非常重要。身份證
  第 3 步:提取數據
  當前獲取的數據為動(dòng)態(tài)數據。動(dòng)態(tài)數據和動(dòng)態(tài)數據一般都是json數據。json數據可以直接通過(guò)jsonpath提取,也可以直接轉換成字典。通過(guò)Python進(jìn)行提取的最終目的是提取圖片的url地址。
  提取新地址后,需要再次向該 URL 發(fā)送請求。我們需要的是圖像數據。鏈接一般存儲在數據中。發(fā)送請求,獲取圖片對應的二進(jìn)制數據。
  第 4 步:保存數據
  獲取數據后,存儲數據,選擇存儲數據的位置,選擇寫(xiě)入方式。我們獲取的數據是二進(jìn)制數據,文件訪(fǎng)問(wèn)方式使用的是wb。只需將獲取的圖片寫(xiě)入數據即可。后綴需要是圖像末尾的后綴。您可以選擇用標題命名,或使用 URL 的后面部分來(lái)命名。新手小白想要更輕松地學(xué)習Python基礎、Python爬蟲(chóng)、Web開(kāi)發(fā)、大數據、數據分析、人工智能等技術(shù),這里分享系統教學(xué)資源,聯(lián)系我Wei X:762459510【教程/工具/方法】 / 解惑]

技巧:做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 73 次瀏覽 ? 2022-10-14 12:11 ? 來(lái)自相關(guān)話(huà)題

  技巧:做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品
  采集自動(dòng)組合全局地圖,盡量搜尋文件夾內容規范、遮擋關(guān)系、道路網(wǎng)條件。做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品。自動(dòng)組合地圖盡量使用地面。比如草叢邊際、橋梁間隔等。資源互補,所有物品均可滿(mǎn)足。自動(dòng)尋路能搜索位置非同一物品下,效率更高。地圖搜索適用于主動(dòng)搜索,輸入物品名字,若有則加到搜索范圍內,避免搜索時(shí)遺漏搜索框上面還有幾個(gè)主要功能自動(dòng)搜索資源交換物品提示可玩性已考慮全局地圖策劃和內存評估清理空間和緩存(壓縮)啟動(dòng)速度更高性能一體機可將地圖縮放至4800x4800dpi盡量少使用文件夾式地圖。
  大概就是快排。1.創(chuàng )建一個(gè)小的目錄名為當前游戲的主場(chǎng)景文件夾,在這個(gè)目錄下有四個(gè)子文件夾:游戲-主場(chǎng)景_bundle.py游戲-背景_bundle.py游戲-情景_bundle.py游戲-角色_bundle.py2.再創(chuàng )建新的游戲場(chǎng)景,這里不用擔心場(chǎng)景的bundle上傳。3.新建一個(gè)文件夾叫做主場(chǎng)景,用來(lái)存放主場(chǎng)景的地圖數據文件。
  
  4.將主場(chǎng)景及附近的場(chǎng)景用記事本另存一份就是我們的全景地圖存檔。5.在screencaptureline中存入主場(chǎng)景及附近的場(chǎng)景圖片或影像文件。6.使用游戲進(jìn)程進(jìn)行搜索,如果有匹配的場(chǎng)景就會(huì )顯示主場(chǎng)景以及附近的場(chǎng)景,沒(méi)有匹配的場(chǎng)景的話(huà)會(huì )顯示一個(gè)id為000的路徑。7.搜索完成后會(huì )在按場(chǎng)景進(jìn)行排序,如果有匹配的會(huì )按照xyz進(jìn)行排序,此時(shí)可以判斷這個(gè)場(chǎng)景是否是游戲的服務(wù)器場(chǎng)景。
  8.以上過(guò)程會(huì )消耗游戲200m內存?,F在我們要簡(jiǎn)單設置我們地圖的幾個(gè)主要屬性:寬度高度:寬高使用320*240px的畫(huà)面,并且不能超過(guò)decimality的范圍3,高度的話(huà)在上一篇我們制作了旋轉地圖的處理方法,可以參考。坐標:被計算時(shí),需要確定相機的位置,一般可以通過(guò)4根axis線(xiàn)對相機位置進(jìn)行解算。
  1、相機usb設置mode選擇photometric
  
  2、相機idmenu只有在manual模式下才能得到menu-attribute相機的相機id,其他模式下得到的是resource-attribute并且需要設置。
  名稱(chēng):world
  2、關(guān)于點(diǎn)和面:ie下的點(diǎn)menu-point-references可以查看顯示的面,而非點(diǎn)的位置,這樣方便配合顯示相機的位置。把重點(diǎn)放在ie和iehelp里。點(diǎn)的usb-mode上我用ie的menu-attribute匹配了4張圖片,同理cc和bt需要通過(guò)ie的menu-attribute進(jìn)行匹配。
  關(guān)于相機:ie相機進(jìn)程中會(huì )調用genimg方法從內部磁盤(pán)讀??;iemenu-attribute可以自定義自己的相機類(lèi)型以及所在的相機指針。玩家頭像的話(huà)在waitline方法中。相機驅動(dòng)的。 查看全部

  技巧:做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品
  采集自動(dòng)組合全局地圖,盡量搜尋文件夾內容規范、遮擋關(guān)系、道路網(wǎng)條件。做一個(gè)快捷菜單可以縮放模擬場(chǎng)景方便查找目標搜索物品。自動(dòng)組合地圖盡量使用地面。比如草叢邊際、橋梁間隔等。資源互補,所有物品均可滿(mǎn)足。自動(dòng)尋路能搜索位置非同一物品下,效率更高。地圖搜索適用于主動(dòng)搜索,輸入物品名字,若有則加到搜索范圍內,避免搜索時(shí)遺漏搜索框上面還有幾個(gè)主要功能自動(dòng)搜索資源交換物品提示可玩性已考慮全局地圖策劃和內存評估清理空間和緩存(壓縮)啟動(dòng)速度更高性能一體機可將地圖縮放至4800x4800dpi盡量少使用文件夾式地圖。
  大概就是快排。1.創(chuàng )建一個(gè)小的目錄名為當前游戲的主場(chǎng)景文件夾,在這個(gè)目錄下有四個(gè)子文件夾:游戲-主場(chǎng)景_bundle.py游戲-背景_bundle.py游戲-情景_bundle.py游戲-角色_bundle.py2.再創(chuàng )建新的游戲場(chǎng)景,這里不用擔心場(chǎng)景的bundle上傳。3.新建一個(gè)文件夾叫做主場(chǎng)景,用來(lái)存放主場(chǎng)景的地圖數據文件。
  
  4.將主場(chǎng)景及附近的場(chǎng)景用記事本另存一份就是我們的全景地圖存檔。5.在screencaptureline中存入主場(chǎng)景及附近的場(chǎng)景圖片或影像文件。6.使用游戲進(jìn)程進(jìn)行搜索,如果有匹配的場(chǎng)景就會(huì )顯示主場(chǎng)景以及附近的場(chǎng)景,沒(méi)有匹配的場(chǎng)景的話(huà)會(huì )顯示一個(gè)id為000的路徑。7.搜索完成后會(huì )在按場(chǎng)景進(jìn)行排序,如果有匹配的會(huì )按照xyz進(jìn)行排序,此時(shí)可以判斷這個(gè)場(chǎng)景是否是游戲的服務(wù)器場(chǎng)景。
  8.以上過(guò)程會(huì )消耗游戲200m內存?,F在我們要簡(jiǎn)單設置我們地圖的幾個(gè)主要屬性:寬度高度:寬高使用320*240px的畫(huà)面,并且不能超過(guò)decimality的范圍3,高度的話(huà)在上一篇我們制作了旋轉地圖的處理方法,可以參考。坐標:被計算時(shí),需要確定相機的位置,一般可以通過(guò)4根axis線(xiàn)對相機位置進(jìn)行解算。
  1、相機usb設置mode選擇photometric
  
  2、相機idmenu只有在manual模式下才能得到menu-attribute相機的相機id,其他模式下得到的是resource-attribute并且需要設置。
  名稱(chēng):world
  2、關(guān)于點(diǎn)和面:ie下的點(diǎn)menu-point-references可以查看顯示的面,而非點(diǎn)的位置,這樣方便配合顯示相機的位置。把重點(diǎn)放在ie和iehelp里。點(diǎn)的usb-mode上我用ie的menu-attribute匹配了4張圖片,同理cc和bt需要通過(guò)ie的menu-attribute進(jìn)行匹配。
  關(guān)于相機:ie相機進(jìn)程中會(huì )調用genimg方法從內部磁盤(pán)讀??;iemenu-attribute可以自定義自己的相機類(lèi)型以及所在的相機指針。玩家頭像的話(huà)在waitline方法中。相機驅動(dòng)的。

采集自動(dòng)組合 干貨:如何給一本書(shū)生成標,當然你得會(huì )寫(xiě)php

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 116 次瀏覽 ? 2022-10-10 13:09 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合 干貨:如何給一本書(shū)生成標,當然你得會(huì )寫(xiě)php
  采集自動(dòng)組合,如圖:-image.jpg標題字體:——elements標題:字體-introarticle/%e5%bb%86%e5%88%bb圖書(shū):信息系統書(shū)籍信息轉化而成字體_在線(xiàn)轉換格式_cjk編碼_isonfts字體文件中心圖書(shū),建議選擇mobi文件。
  infographicsforsmartcommunication這是我目前用過(guò)覺(jué)得效果最好的了。
  目前來(lái)看,是createjs這個(gè)生成工具吧,
  
  建議題主上一下thinkphp10.3.6看看,據說(shuō)這個(gè)工具兼容性不錯,圖書(shū)質(zhì)量挺好,
  目前看來(lái),還是createjs圖書(shū)生成工具吧。readlater似乎不能實(shí)現不過(guò),這個(gè)工具的性能和element表現不錯。
  應該不止一種可以對應圖書(shū),我推薦docheimages這個(gè)工具,通過(guò)cms分析了主流的主流電子書(shū)格式,以及國內主流電子書(shū)格式,制作了一些圖書(shū),性能不錯,交互也不錯,你可以去試試。
  
  可以去看我另一個(gè)答案,基本上都是css實(shí)現的。如何給一本書(shū)生成標題圖,
  作為一個(gè)輕量級的項目,可以嘗試目前目前流行的readuter系列工具,希望能幫到你,
  在線(xiàn)圖書(shū)對應應該有2個(gè)方案:制作網(wǎng)站模板,然后導入現成的圖書(shū)信息,使用css的選擇器,采用正則匹配;前端定制css來(lái)實(shí)現網(wǎng)站模板。另外的方案,css語(yǔ)言是用css來(lái)實(shí)現,javascript用javascript,php用php,后端語(yǔ)言用php來(lái)實(shí)現,當然你得會(huì )寫(xiě)php。因為這個(gè)量級的量級,javascript必不可少,除非你沒(méi)有自己的開(kāi)發(fā)工具。
  然后發(fā)布,找個(gè)網(wǎng)站,把你的源代碼存起來(lái),然后購買(mǎi)一個(gè)域名,買(mǎi)的時(shí)候挑大點(diǎn)的,空間也選大點(diǎn)的,一般專(zhuān)業(yè)點(diǎn)的服務(wù)器和空間會(huì )有托管,然后再把你的網(wǎng)站拿出來(lái)上傳到網(wǎng)站根目錄,自己設定訪(fǎng)問(wèn)鏈接就可以了。目前比較成熟的主流的h5也可以做了。如果你還有其他需求,再提出來(lái),我再來(lái)擴展。 查看全部

  采集自動(dòng)組合 干貨:如何給一本書(shū)生成標,當然你得會(huì )寫(xiě)php
  采集自動(dòng)組合,如圖:-image.jpg標題字體:——elements標題:字體-introarticle/%e5%bb%86%e5%88%bb圖書(shū):信息系統書(shū)籍信息轉化而成字體_在線(xiàn)轉換格式_cjk編碼_isonfts字體文件中心圖書(shū),建議選擇mobi文件。
  infographicsforsmartcommunication這是我目前用過(guò)覺(jué)得效果最好的了。
  目前來(lái)看,是createjs這個(gè)生成工具吧,
  
  建議題主上一下thinkphp10.3.6看看,據說(shuō)這個(gè)工具兼容性不錯,圖書(shū)質(zhì)量挺好,
  目前看來(lái),還是createjs圖書(shū)生成工具吧。readlater似乎不能實(shí)現不過(guò),這個(gè)工具的性能和element表現不錯。
  應該不止一種可以對應圖書(shū),我推薦docheimages這個(gè)工具,通過(guò)cms分析了主流的主流電子書(shū)格式,以及國內主流電子書(shū)格式,制作了一些圖書(shū),性能不錯,交互也不錯,你可以去試試。
  
  可以去看我另一個(gè)答案,基本上都是css實(shí)現的。如何給一本書(shū)生成標題圖,
  作為一個(gè)輕量級的項目,可以嘗試目前目前流行的readuter系列工具,希望能幫到你,
  在線(xiàn)圖書(shū)對應應該有2個(gè)方案:制作網(wǎng)站模板,然后導入現成的圖書(shū)信息,使用css的選擇器,采用正則匹配;前端定制css來(lái)實(shí)現網(wǎng)站模板。另外的方案,css語(yǔ)言是用css來(lái)實(shí)現,javascript用javascript,php用php,后端語(yǔ)言用php來(lái)實(shí)現,當然你得會(huì )寫(xiě)php。因為這個(gè)量級的量級,javascript必不可少,除非你沒(méi)有自己的開(kāi)發(fā)工具。
  然后發(fā)布,找個(gè)網(wǎng)站,把你的源代碼存起來(lái),然后購買(mǎi)一個(gè)域名,買(mǎi)的時(shí)候挑大點(diǎn)的,空間也選大點(diǎn)的,一般專(zhuān)業(yè)點(diǎn)的服務(wù)器和空間會(huì )有托管,然后再把你的網(wǎng)站拿出來(lái)上傳到網(wǎng)站根目錄,自己設定訪(fǎng)問(wèn)鏈接就可以了。目前比較成熟的主流的h5也可以做了。如果你還有其他需求,再提出來(lái),我再來(lái)擴展。

終極:在線(xiàn)關(guān)鍵詞組合器,長(cháng)尾關(guān)鍵詞組合工具,標題自動(dòng)生成

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 297 次瀏覽 ? 2022-10-06 13:44 ? 來(lái)自相關(guān)話(huà)題

  終極:在線(xiàn)關(guān)鍵詞組合器,長(cháng)尾關(guān)鍵詞組合工具,標題自動(dòng)生成
  關(guān)鍵詞組合工具,網(wǎng)站在建關(guān)鍵詞的選擇很重要,我們如何選擇網(wǎng)站關(guān)鍵詞是我們站長(cháng)關(guān)心的問(wèn)題。關(guān)鍵詞你選擇的方向錯了,可能你網(wǎng)站已經(jīng)很久沒(méi)有好的SEO排名了,我們可以用關(guān)鍵詞組合工具來(lái)確定我們的網(wǎng)站關(guān)鍵詞并挖掘出大量關(guān)鍵詞對應的長(cháng)尾關(guān)鍵詞,再結合關(guān)鍵詞pan采集、偽原創(chuàng ) , 發(fā)布并自動(dòng)提交到主要搜索引擎確實(shí) 收錄。
  
  關(guān)鍵詞組合工具可以挖掘長(cháng)尾關(guān)鍵詞,可以自由組合關(guān)鍵詞,然后采集偽原創(chuàng )發(fā)布到網(wǎng)站。那么我們首先需要知道什么是長(cháng)尾關(guān)鍵詞。長(cháng)尾 關(guān)鍵詞 是 網(wǎng)站 上的非核心 關(guān)鍵詞 和次要 關(guān)鍵詞,但也驅動(dòng)搜索流量的 關(guān)鍵詞,通常是核心 關(guān)鍵詞 和次要 關(guān)鍵詞 的擴展。長(cháng)尾關(guān)鍵詞有以下特點(diǎn),它們比較長(cháng),通常由2-3個(gè)詞組成,包括疑問(wèn)詞。在一個(gè)內容頁(yè)面中渲染,除了內容頁(yè)面的標題外,還在內容中。搜索量小且不穩定,但搜索用戶(hù)精準。長(cháng)尾關(guān)鍵詞比較大中型網(wǎng)站
  
  操作方法:文章自動(dòng)采集重新組合工具
  批量采集組合文章就是從多個(gè)文章到關(guān)鍵詞采集中提取出采集之后的智能段落,重新組合成一個(gè)新的片段新采集的文章可以自動(dòng)為新采集的文章生成目錄和標題,并提取TDK并發(fā)布到我們的網(wǎng)站對應部分。
  采集組合文章工具操作簡(jiǎn)單,有文章關(guān)鍵詞采集、文章段落重組、文章標題表內容生成和關(guān)鍵詞錨文本、同義詞替換、敏感詞刪除等功能,所有操作都是批量進(jìn)行,只需點(diǎn)擊設置我們的SEO模板,即可重組發(fā)布多篇文章文章。
  采集組合文章工具也有圖像處理的功能。如圖,我們可以發(fā)布我們的采集圖片的本地化圖片鏈接,并通過(guò)自動(dòng)下載到本地給原圖加水印。處理或替換發(fā)布的原創(chuàng )圖像可以達到文章圖像的原創(chuàng )度。
  
  在確定哪些行業(yè)在搜索引擎上最具競爭力時(shí),需要考慮許多因素。首先是行業(yè)的整體知名度。這可以通過(guò)查看與垂直相關(guān)的關(guān)鍵術(shù)語(yǔ)的搜索次數來(lái)衡量。二是行業(yè)內的競爭程度。這可以通過(guò)查看 網(wǎng)站 競爭相同關(guān)鍵術(shù)語(yǔ)的數量和質(zhì)量來(lái)確定。第三是關(guān)鍵詞排名的難度。
  這可以通過(guò)查看 網(wǎng)站 競爭相同 關(guān)鍵詞 的平均搜索引擎排名來(lái)確定。搜索引擎上的熱門(mén)垂直行業(yè)通常更具競爭力。比如我給自己的兩個(gè) 網(wǎng)站 排名時(shí),他們都屬于完全不同的領(lǐng)域,對于競爭不激烈的小眾行業(yè),我們可以很容易地在 關(guān)鍵詞 上排名,如果另一個(gè)是與有競爭力的 網(wǎng)站 競爭。在 SEO 方面,它們都是不同的世界,這就是為什么在進(jìn)行 SEO 之前進(jìn)行適當的市場(chǎng)研究是明智的。
  這是因為對這些主題的信息需求更大,并且有更多的網(wǎng)站競爭相同的關(guān)鍵術(shù)語(yǔ)。行業(yè)內的競爭程度也受關(guān)鍵詞排名難度的影響。如果關(guān)鍵詞很難排名,那么能做到高搜索引擎排名的網(wǎng)站就會(huì )越來(lái)越少,小眾競爭會(huì )更加激烈。
  
  為什么搜索引擎排名一天比一天難,眾所周知,搜索引擎排名一天比一天難。搜索引擎算法不斷發(fā)展,新功能不斷增加,這使得 網(wǎng)站 所有者更難提高他們的排名。
  這使得 網(wǎng)站 需要專(zhuān)注于制作高質(zhì)量、信息豐富的內容,如果他們想在搜索引擎中獲得良好的排名。最近另一個(gè)使搜索引擎排名更難的變化是反向鏈接的重要性增加。搜索引擎現在更關(guān)注 網(wǎng)站 反向鏈接的質(zhì)量而不是數量,這意味著(zhù) 網(wǎng)站 所有者需要專(zhuān)注于從高質(zhì)量的 網(wǎng)站 構建鏈接。
  批處理采集組合文章的分享到此結束。通過(guò)批處理采集組合文章工具,可以將多個(gè)內容相似的文檔組合起來(lái)生成一個(gè)新的原創(chuàng )文章,提高我們網(wǎng)站的速度收錄通過(guò)對SEO友好的關(guān)鍵詞提取、圖片本地化處理、主動(dòng)URL推送等,如果大家喜歡這個(gè)文章,記得點(diǎn)贊訂閱。 查看全部

  終極:在線(xiàn)關(guān)鍵詞組合器,長(cháng)尾關(guān)鍵詞組合工具,標題自動(dòng)生成
  關(guān)鍵詞組合工具,網(wǎng)站在建關(guān)鍵詞的選擇很重要,我們如何選擇網(wǎng)站關(guān)鍵詞是我們站長(cháng)關(guān)心的問(wèn)題。關(guān)鍵詞你選擇的方向錯了,可能你網(wǎng)站已經(jīng)很久沒(méi)有好的SEO排名了,我們可以用關(guān)鍵詞組合工具來(lái)確定我們的網(wǎng)站關(guān)鍵詞并挖掘出大量關(guān)鍵詞對應的長(cháng)尾關(guān)鍵詞,再結合關(guān)鍵詞pan采集、偽原創(chuàng ) , 發(fā)布并自動(dòng)提交到主要搜索引擎確實(shí) 收錄。
  
  關(guān)鍵詞組合工具可以挖掘長(cháng)尾關(guān)鍵詞,可以自由組合關(guān)鍵詞,然后采集偽原創(chuàng )發(fā)布到網(wǎng)站。那么我們首先需要知道什么是長(cháng)尾關(guān)鍵詞。長(cháng)尾 關(guān)鍵詞 是 網(wǎng)站 上的非核心 關(guān)鍵詞 和次要 關(guān)鍵詞,但也驅動(dòng)搜索流量的 關(guān)鍵詞,通常是核心 關(guān)鍵詞 和次要 關(guān)鍵詞 的擴展。長(cháng)尾關(guān)鍵詞有以下特點(diǎn),它們比較長(cháng),通常由2-3個(gè)詞組成,包括疑問(wèn)詞。在一個(gè)內容頁(yè)面中渲染,除了內容頁(yè)面的標題外,還在內容中。搜索量小且不穩定,但搜索用戶(hù)精準。長(cháng)尾關(guān)鍵詞比較大中型網(wǎng)站
  
  操作方法:文章自動(dòng)采集重新組合工具
  批量采集組合文章就是從多個(gè)文章到關(guān)鍵詞采集中提取出采集之后的智能段落,重新組合成一個(gè)新的片段新采集的文章可以自動(dòng)為新采集的文章生成目錄和標題,并提取TDK并發(fā)布到我們的網(wǎng)站對應部分。
  采集組合文章工具操作簡(jiǎn)單,有文章關(guān)鍵詞采集、文章段落重組、文章標題表內容生成和關(guān)鍵詞錨文本、同義詞替換、敏感詞刪除等功能,所有操作都是批量進(jìn)行,只需點(diǎn)擊設置我們的SEO模板,即可重組發(fā)布多篇文章文章。
  采集組合文章工具也有圖像處理的功能。如圖,我們可以發(fā)布我們的采集圖片的本地化圖片鏈接,并通過(guò)自動(dòng)下載到本地給原圖加水印。處理或替換發(fā)布的原創(chuàng )圖像可以達到文章圖像的原創(chuàng )度。
  
  在確定哪些行業(yè)在搜索引擎上最具競爭力時(shí),需要考慮許多因素。首先是行業(yè)的整體知名度。這可以通過(guò)查看與垂直相關(guān)的關(guān)鍵術(shù)語(yǔ)的搜索次數來(lái)衡量。二是行業(yè)內的競爭程度。這可以通過(guò)查看 網(wǎng)站 競爭相同關(guān)鍵術(shù)語(yǔ)的數量和質(zhì)量來(lái)確定。第三是關(guān)鍵詞排名的難度。
  這可以通過(guò)查看 網(wǎng)站 競爭相同 關(guān)鍵詞 的平均搜索引擎排名來(lái)確定。搜索引擎上的熱門(mén)垂直行業(yè)通常更具競爭力。比如我給自己的兩個(gè) 網(wǎng)站 排名時(shí),他們都屬于完全不同的領(lǐng)域,對于競爭不激烈的小眾行業(yè),我們可以很容易地在 關(guān)鍵詞 上排名,如果另一個(gè)是與有競爭力的 網(wǎng)站 競爭。在 SEO 方面,它們都是不同的世界,這就是為什么在進(jìn)行 SEO 之前進(jìn)行適當的市場(chǎng)研究是明智的。
  這是因為對這些主題的信息需求更大,并且有更多的網(wǎng)站競爭相同的關(guān)鍵術(shù)語(yǔ)。行業(yè)內的競爭程度也受關(guān)鍵詞排名難度的影響。如果關(guān)鍵詞很難排名,那么能做到高搜索引擎排名的網(wǎng)站就會(huì )越來(lái)越少,小眾競爭會(huì )更加激烈。
  
  為什么搜索引擎排名一天比一天難,眾所周知,搜索引擎排名一天比一天難。搜索引擎算法不斷發(fā)展,新功能不斷增加,這使得 網(wǎng)站 所有者更難提高他們的排名。
  這使得 網(wǎng)站 需要專(zhuān)注于制作高質(zhì)量、信息豐富的內容,如果他們想在搜索引擎中獲得良好的排名。最近另一個(gè)使搜索引擎排名更難的變化是反向鏈接的重要性增加。搜索引擎現在更關(guān)注 網(wǎng)站 反向鏈接的質(zhì)量而不是數量,這意味著(zhù) 網(wǎng)站 所有者需要專(zhuān)注于從高質(zhì)量的 網(wǎng)站 構建鏈接。
  批處理采集組合文章的分享到此結束。通過(guò)批處理采集組合文章工具,可以將多個(gè)內容相似的文檔組合起來(lái)生成一個(gè)新的原創(chuàng )文章,提高我們網(wǎng)站的速度收錄通過(guò)對SEO友好的關(guān)鍵詞提取、圖片本地化處理、主動(dòng)URL推送等,如果大家喜歡這個(gè)文章,記得點(diǎn)贊訂閱。

免費分享:教你zblog采集如何自動(dòng)zblog采集和zblog發(fā)布(圖文教程)

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 284 次瀏覽 ? 2022-10-06 13:43 ? 來(lái)自相關(guān)話(huà)題

  免費分享:教你zblog采集如何自動(dòng)zblog采集和zblog發(fā)布(圖文教程)
  Zblog是基于Zblog開(kāi)發(fā)團隊開(kāi)發(fā)的Asp和PHP平臺的一個(gè)小而強大的開(kāi)源程序,但是Zblog在插件市場(chǎng)上采集插件,這些插件都不能玩,要么沒(méi)有SEO文章內容處理,要么是單一的功能。對于SEO網(wǎng)站管理員來(lái)說(shuō),很少有Zblog采集。
  人們知道Zblog采集界面不是
  熟悉Zblog采集的人做,很多人采取模擬登錄的方法發(fā)布文章,有很多人直接操作數據庫發(fā)布文章,但這些或多或少都是由各種問(wèn)題引起的,發(fā)布速度慢,文章內容沒(méi)有嚴格過(guò)濾,導致安全問(wèn)題,無(wú)法發(fā)送標簽,無(wú)法自動(dòng)創(chuàng )建分類(lèi)等。但是,使用Zblog采集發(fā)布速度快,文章內容經(jīng)過(guò)嚴格過(guò)濾,沒(méi)有安全問(wèn)題,可以發(fā)送TAG并支持自動(dòng)創(chuàng )建分類(lèi)。
  Zblog采集幫助站節省了大量的處理人力,插件不僅支持文章采集,還支持采集中的注釋文章,以及其他插件(非采集)的數據文章。
  Zblog采集還支持帝國cms、益友、Zblog采集、德cms、WordPress、PBoot、蘋(píng)果cms、迅瑞cms、PHP cms、蘋(píng)果cms、人人cms、美圖cms、云cms、小旋風(fēng)站群、THINKCMF、建站ABC、萬(wàn)科cms、易cms、海cms、飛飛cms、本地發(fā)布、搜外等主要cms,可同時(shí)分批管理和發(fā)布。
  Z博客采集支持任何PHP版本的Z博客采集支持任何版本
  的 MysqlZ博客采集和 Zb 博客采集支持任何版本的 Nginx。
  
  Zblog 采集支持內容替換,Zblog 采集支持 HTML 過(guò)濾,Zblog 采集支持常規提取,Zblog 采集支持字符攔截,Zblog 采集支持內容附錄,Zblog 采集支持
  空內容默認值,Zblog 采集支持關(guān)鍵詞分詞。Zblog 采集支持同義詞替換,Zblog 采集支持關(guān)鍵詞內部鏈接。
  茲博采集支持采集任何版本的茲博。Zblog采集作者宣言永遠免費。
  Zblog 采集不會(huì )由于版本不匹配或其他原因(例如采集不支持的服務(wù)器環(huán)境)而無(wú)法使用。
  Zblog采集配置簡(jiǎn)單,Zblog采集不需要花很多時(shí)間學(xué)習軟件操作,一分鐘就可以開(kāi)始使用而無(wú)需配置采集規則,輸入關(guān)鍵詞就可以采集。
  Zblog 采集可用于字段內容再處理,Zblog 采集也可以是從內容頁(yè)面派生的多級頁(yè)面組合。
  Zblog采集有很好的字段使用方法,對于關(guān)鍵詞Zblog采集可以自動(dòng)分割Zblog采集同義詞轉換關(guān)鍵詞內部鏈過(guò)濾查看(編輯)Zblog采集可以查看采集數據,Zblog采集支持php擴展。Z博客采集可以查看擴展
  
  Zblog 采集提供一站式解決方案,網(wǎng)站文章無(wú)需人工干預,設置任務(wù)以自動(dòng)執行采集發(fā)布。
  Zblog采集可以實(shí)現上百種不同的cms網(wǎng)站可以實(shí)現統一管理。一個(gè)人維護數百網(wǎng)站文章更新不是問(wèn)題。
  Zblog采集第三方采集軟件非常強大,只要你輸入關(guān)鍵詞就可以采集,可以通過(guò)軟件采集自動(dòng)采集和發(fā)布,為了讓搜索引擎文章你的網(wǎng)站收錄,我們還可以設置圖片的自動(dòng)下載和替換鏈接,圖像存儲方式支持:阿里云OSS、七牛對象存儲、騰訊云、優(yōu)派云等。
  {作為$articles的$dayHotArticle}
  {$articles.標題}
  {/foreach}
  Zblog采集還配備了自動(dòng)內部鏈接,內容或標題,在插入某些內容以形成“偽原創(chuàng )”之前和之后。Zblog采集還具有監視功能,可讓您直接通過(guò)軟件查看文章采集版本。
  今天的Zblog采集在這里分享,接下來(lái)要分享更多SEO相關(guān)知識,希望在SEO網(wǎng)站優(yōu)化的這條路上能幫到你,喜歡,不妨點(diǎn)擊三個(gè)鏈接。
  簡(jiǎn)單教程:帝國cms采集圖文教程(下)
  2/3/2018 01:10:28
  iProber-PHP探針主要功能: 1、服務(wù)器環(huán)境檢測:CPU、在線(xiàn)時(shí)間、內存使用情況、系統平均負載檢測(支持LINUX、FreeBSD系統,需系統支持)、操作系統、服務(wù)器域名、IP地址、解釋引擎 2. PHP 基本特性檢測:版本、運行模式、安全模式、Zend 編譯運行及通用參數 3. PHP 組件支持檢測:MYSQL、GD、XML、SESSION、SOCKET 等組件支持 4. 服務(wù)器性能檢測:
  Empirecms采集圖文教程(第二部分)
  15/3/2012 10:18:00
  前兩講我們介紹了帝國cms采集的基本流程和帝國cms如何采集內容分頁(yè)。上一講主要介紹了帝國cms采集過(guò)濾替換,以及一些技巧。
  PHP采集相關(guān)教程之一的CURL函數庫
  2018 年 4 月 3 日 01:14:49
  總結:CURL函數庫,PHP采集相關(guān)教程之一
  
  帝國cms采集圖文教程(中)
  2012 年 12 月 3 日 14:07:00
  那么讓我們來(lái)談?wù)刢ms如何采集Empire中的內容分頁(yè)。在采集的過(guò)程中,很多同學(xué)在列表頁(yè)和內容頁(yè)上都可以很好地設置正則化,但是在內容分頁(yè)正則化上經(jīng)常失敗,主要是因為對內容分頁(yè)正則化不了解。Empire中的內容分頁(yè)有兩種形式:(1)全列表式(2)上下頁(yè)面導航式,但是這兩種內容分頁(yè)形式有什么區別,采集內容應該用哪個(gè)分頁(yè),官方說(shuō)比較模糊,有同學(xué)覺(jué)得頭大了,好吧。
  Empirecms采集功能設置圖文教程(上)
  2012 年 8 月 3 日 14:34:00
  Empirecms 是一個(gè)我們使用大量 PHP 的網(wǎng)站構建系統。在建網(wǎng)站的過(guò)程中,如果沒(méi)有任何信息來(lái)源,只能手工復制粘貼,費時(shí)費力,所以我們不得不使用Empire。cms自己的采集函數完成信息錄入。為了深入了解帝國cms采集的功能,我們以“新浪新聞”欄目為例進(jìn)行實(shí)戰采集。
  網(wǎng)站優(yōu)化指南:標簽優(yōu)化技巧分析
  19/4/2010 10:51:00
  如今,所有主要的cms 和博客系統都添加了標簽。tag標簽的意思是將相關(guān)的關(guān)鍵詞聚合在一起?,F在網(wǎng)站管理員使用 Tag 標簽。標簽無(wú)非就是兩點(diǎn) 1:增強搜索引擎地收錄。2:有利于用戶(hù)體驗。
  
  賬號中PUSH域名中文圖文教程
  2012 年 9 月 7 日 14:25:00
  平時(shí)我們可能會(huì )使用更多的godaddy域名,不能只局限于這個(gè)注冊商。還是有很多站長(cháng)喜歡用namecheap等注冊商來(lái)注冊域名。今天早上有網(wǎng)友要求賣(mài)一個(gè)域名,但是他不能推送這個(gè)域名,于是我截圖并寫(xiě)下了這個(gè)域名網(wǎng)站的推送教程方法。如果其他朋友需要,也可以參考。
  SEO的兩個(gè)死胡同:采集和群發(fā)
  2007 年 3 月 7 日 10:34:00
  一般來(lái)說(shuō),網(wǎng)站 SEO 成功的主要標準是內容和鏈接,不幸的是,一些 SEO 與 采集 和大量發(fā)布相關(guān)聯(lián)。是否可以通過(guò)采集器簡(jiǎn)單地采集和積累內容,通過(guò)群發(fā)者任意添加外部鏈接來(lái)玩搜索引擎?事實(shí)上,這是SEO的兩個(gè)死胡同。據我所知,網(wǎng)站采集主要有兩種方式,一種是
  云服務(wù)器php中short_open_tag短標簽的使用
  2/2/202117:28:54
  php配置文件(php.ini)中有一個(gè)short_open_tag值,打開(kāi)后可以使用php段標簽:()。同時(shí),只有開(kāi)啟這個(gè)才能使用 查看全部

  免費分享:教你zblog采集如何自動(dòng)zblog采集和zblog發(fā)布(圖文教程)
  Zblog是基于Zblog開(kāi)發(fā)團隊開(kāi)發(fā)的Asp和PHP平臺的一個(gè)小而強大的開(kāi)源程序,但是Zblog在插件市場(chǎng)上采集插件,這些插件都不能玩,要么沒(méi)有SEO文章內容處理,要么是單一的功能。對于SEO網(wǎng)站管理員來(lái)說(shuō),很少有Zblog采集。
  人們知道Zblog采集界面不是
  熟悉Zblog采集的人做,很多人采取模擬登錄的方法發(fā)布文章,有很多人直接操作數據庫發(fā)布文章,但這些或多或少都是由各種問(wèn)題引起的,發(fā)布速度慢,文章內容沒(méi)有嚴格過(guò)濾,導致安全問(wèn)題,無(wú)法發(fā)送標簽,無(wú)法自動(dòng)創(chuàng )建分類(lèi)等。但是,使用Zblog采集發(fā)布速度快,文章內容經(jīng)過(guò)嚴格過(guò)濾,沒(méi)有安全問(wèn)題,可以發(fā)送TAG并支持自動(dòng)創(chuàng )建分類(lèi)。
  Zblog采集幫助站節省了大量的處理人力,插件不僅支持文章采集,還支持采集中的注釋文章,以及其他插件(非采集)的數據文章。
  Zblog采集還支持帝國cms、益友、Zblog采集、德cms、WordPress、PBoot、蘋(píng)果cms、迅瑞cms、PHP cms、蘋(píng)果cms、人人cms、美圖cms、云cms、小旋風(fēng)站群、THINKCMF、建站ABC、萬(wàn)科cms、易cms、海cms、飛飛cms、本地發(fā)布、搜外等主要cms,可同時(shí)分批管理和發(fā)布。
  Z博客采集支持任何PHP版本的Z博客采集支持任何版本
  的 MysqlZ博客采集和 Zb 博客采集支持任何版本的 Nginx。
  
  Zblog 采集支持內容替換,Zblog 采集支持 HTML 過(guò)濾,Zblog 采集支持常規提取,Zblog 采集支持字符攔截,Zblog 采集支持內容附錄,Zblog 采集支持
  空內容默認值,Zblog 采集支持關(guān)鍵詞分詞。Zblog 采集支持同義詞替換,Zblog 采集支持關(guān)鍵詞內部鏈接。
  茲博采集支持采集任何版本的茲博。Zblog采集作者宣言永遠免費。
  Zblog 采集不會(huì )由于版本不匹配或其他原因(例如采集不支持的服務(wù)器環(huán)境)而無(wú)法使用。
  Zblog采集配置簡(jiǎn)單,Zblog采集不需要花很多時(shí)間學(xué)習軟件操作,一分鐘就可以開(kāi)始使用而無(wú)需配置采集規則,輸入關(guān)鍵詞就可以采集。
  Zblog 采集可用于字段內容再處理,Zblog 采集也可以是從內容頁(yè)面派生的多級頁(yè)面組合。
  Zblog采集有很好的字段使用方法,對于關(guān)鍵詞Zblog采集可以自動(dòng)分割Zblog采集同義詞轉換關(guān)鍵詞內部鏈過(guò)濾查看(編輯)Zblog采集可以查看采集數據,Zblog采集支持php擴展。Z博客采集可以查看擴展
  
  Zblog 采集提供一站式解決方案,網(wǎng)站文章無(wú)需人工干預,設置任務(wù)以自動(dòng)執行采集發(fā)布。
  Zblog采集可以實(shí)現上百種不同的cms網(wǎng)站可以實(shí)現統一管理。一個(gè)人維護數百網(wǎng)站文章更新不是問(wèn)題。
  Zblog采集第三方采集軟件非常強大,只要你輸入關(guān)鍵詞就可以采集,可以通過(guò)軟件采集自動(dòng)采集和發(fā)布,為了讓搜索引擎文章你的網(wǎng)站收錄,我們還可以設置圖片的自動(dòng)下載和替換鏈接,圖像存儲方式支持:阿里云OSS、七牛對象存儲、騰訊云、優(yōu)派云等。
  {作為$articles的$dayHotArticle}
  {$articles.標題}
  {/foreach}
  Zblog采集還配備了自動(dòng)內部鏈接,內容或標題,在插入某些內容以形成“偽原創(chuàng )”之前和之后。Zblog采集還具有監視功能,可讓您直接通過(guò)軟件查看文章采集版本。
  今天的Zblog采集在這里分享,接下來(lái)要分享更多SEO相關(guān)知識,希望在SEO網(wǎng)站優(yōu)化的這條路上能幫到你,喜歡,不妨點(diǎn)擊三個(gè)鏈接。
  簡(jiǎn)單教程:帝國cms采集圖文教程(下)
  2/3/2018 01:10:28
  iProber-PHP探針主要功能: 1、服務(wù)器環(huán)境檢測:CPU、在線(xiàn)時(shí)間、內存使用情況、系統平均負載檢測(支持LINUX、FreeBSD系統,需系統支持)、操作系統、服務(wù)器域名、IP地址、解釋引擎 2. PHP 基本特性檢測:版本、運行模式、安全模式、Zend 編譯運行及通用參數 3. PHP 組件支持檢測:MYSQL、GD、XML、SESSION、SOCKET 等組件支持 4. 服務(wù)器性能檢測:
  Empirecms采集圖文教程(第二部分)
  15/3/2012 10:18:00
  前兩講我們介紹了帝國cms采集的基本流程和帝國cms如何采集內容分頁(yè)。上一講主要介紹了帝國cms采集過(guò)濾替換,以及一些技巧。
  PHP采集相關(guān)教程之一的CURL函數庫
  2018 年 4 月 3 日 01:14:49
  總結:CURL函數庫,PHP采集相關(guān)教程之一
  
  帝國cms采集圖文教程(中)
  2012 年 12 月 3 日 14:07:00
  那么讓我們來(lái)談?wù)刢ms如何采集Empire中的內容分頁(yè)。在采集的過(guò)程中,很多同學(xué)在列表頁(yè)和內容頁(yè)上都可以很好地設置正則化,但是在內容分頁(yè)正則化上經(jīng)常失敗,主要是因為對內容分頁(yè)正則化不了解。Empire中的內容分頁(yè)有兩種形式:(1)全列表式(2)上下頁(yè)面導航式,但是這兩種內容分頁(yè)形式有什么區別,采集內容應該用哪個(gè)分頁(yè),官方說(shuō)比較模糊,有同學(xué)覺(jué)得頭大了,好吧。
  Empirecms采集功能設置圖文教程(上)
  2012 年 8 月 3 日 14:34:00
  Empirecms 是一個(gè)我們使用大量 PHP 的網(wǎng)站構建系統。在建網(wǎng)站的過(guò)程中,如果沒(méi)有任何信息來(lái)源,只能手工復制粘貼,費時(shí)費力,所以我們不得不使用Empire。cms自己的采集函數完成信息錄入。為了深入了解帝國cms采集的功能,我們以“新浪新聞”欄目為例進(jìn)行實(shí)戰采集。
  網(wǎng)站優(yōu)化指南:標簽優(yōu)化技巧分析
  19/4/2010 10:51:00
  如今,所有主要的cms 和博客系統都添加了標簽。tag標簽的意思是將相關(guān)的關(guān)鍵詞聚合在一起?,F在網(wǎng)站管理員使用 Tag 標簽。標簽無(wú)非就是兩點(diǎn) 1:增強搜索引擎地收錄。2:有利于用戶(hù)體驗。
  
  賬號中PUSH域名中文圖文教程
  2012 年 9 月 7 日 14:25:00
  平時(shí)我們可能會(huì )使用更多的godaddy域名,不能只局限于這個(gè)注冊商。還是有很多站長(cháng)喜歡用namecheap等注冊商來(lái)注冊域名。今天早上有網(wǎng)友要求賣(mài)一個(gè)域名,但是他不能推送這個(gè)域名,于是我截圖并寫(xiě)下了這個(gè)域名網(wǎng)站的推送教程方法。如果其他朋友需要,也可以參考。
  SEO的兩個(gè)死胡同:采集和群發(fā)
  2007 年 3 月 7 日 10:34:00
  一般來(lái)說(shuō),網(wǎng)站 SEO 成功的主要標準是內容和鏈接,不幸的是,一些 SEO 與 采集 和大量發(fā)布相關(guān)聯(lián)。是否可以通過(guò)采集器簡(jiǎn)單地采集和積累內容,通過(guò)群發(fā)者任意添加外部鏈接來(lái)玩搜索引擎?事實(shí)上,這是SEO的兩個(gè)死胡同。據我所知,網(wǎng)站采集主要有兩種方式,一種是
  云服務(wù)器php中short_open_tag短標簽的使用
  2/2/202117:28:54
  php配置文件(php.ini)中有一個(gè)short_open_tag值,打開(kāi)后可以使用php段標簽:()。同時(shí),只有開(kāi)啟這個(gè)才能使用

曝光:采集自動(dòng)組合套路,新浪微博可以抓取哪些社交媒體的數據?

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 115 次瀏覽 ? 2022-09-30 23:07 ? 來(lái)自相關(guān)話(huà)題

  曝光:采集自動(dòng)組合套路,新浪微博可以抓取哪些社交媒體的數據?
  采集自動(dòng)組合套路:套路一:1.個(gè)人昵稱(chēng)后面標注尾號前四位2.通過(guò)號段名自動(dòng)匹配出原來(lái)的個(gè)人昵稱(chēng),自動(dòng)查詢(xún)3.查詢(xún)結果和個(gè)人昵稱(chēng)對不上,選擇人工匹配,輸入昵稱(chēng)4.選擇剛才選擇的人工匹配的人工昵稱(chēng)5.姓名的后面是生日,選擇輸入,點(diǎn)確定。套路二:個(gè)人昵稱(chēng)后面標注01是常見(jiàn)的桃色大號,一般會(huì )同時(shí)匹配兩個(gè)桃色微博。
  1,加10,點(diǎn)擊開(kāi)始匹配2,點(diǎn)擊發(fā)送,發(fā)送后重新查詢(xún)3,發(fā)送,重新匹配4,發(fā)送5,重新匹配結束套路三:通過(guò)首字母匹配可以查詢(xún)到高級匹配或更多字母的用戶(hù),自動(dòng)查詢(xún)具體可參考@泥水姬。
  新浪微博可以抓取哪些社交媒體的數據?-劉大鼎的回答-知乎,抓取別人首頁(yè)的微博,一般根據當前發(fā)布的內容去匹配。另外,需要考慮的就是你的首頁(yè)內容是否能進(jìn)入高級選項,這個(gè)也是和首頁(yè)評論區等相關(guān)聯(lián)的。
  
  去掉用戶(hù)頭像設置,不用標簽,進(jìn)不去就是假的。
  自己實(shí)驗了一下。
  在微博出現之前,知乎并沒(méi)有算法抓取功能,
  
  1、黑白名單(一般有不少人寫(xiě)過(guò)教程)
  2、郵件當然也有郵件過(guò)濾功能
  3、自己寫(xiě)程序數據抓取方法有以下幾種:要么花錢(qián)要么自己寫(xiě)要么加第三方接口方法一:花錢(qián)最通用的方法,而且要花錢(qián)去獲取,不花錢(qián)也沒(méi)什么意思,可能花的錢(qián)比直接抓取要貴。其實(shí)最簡(jiǎn)單的方法是去抓取微博用戶(hù)的主頁(yè)信息,直接從主頁(yè)地址進(jìn)去就可以抓取到了。第三方接口:大貓搜第三方接口比如說(shuō)大貓搜、大貓愛(ài)等等,一方面能抓取微博評論區和發(fā)布時(shí)間及個(gè)人主頁(yè)信息,另一方面也能抓取用戶(hù)頭像地址等重要信息,實(shí)用性很高。
  至于要花多少錢(qián)可以自己慢慢琢磨。方法二:自己寫(xiě)程序自己寫(xiě)一套個(gè)人介紹追蹤程序,從主頁(yè)抓取用戶(hù)昵稱(chēng)和標簽信息,達到追蹤的效果。另外,如果你要自己做抓取,微博的數據網(wǎng)上也可以抓取,具體怎么抓取的可以具體看我的專(zhuān)欄文章!關(guān)注我的專(zhuān)欄獲取更多爬蟲(chóng)和爬蟲(chóng)學(xué)習內容!。 查看全部

  曝光:采集自動(dòng)組合套路,新浪微博可以抓取哪些社交媒體的數據?
  采集自動(dòng)組合套路:套路一:1.個(gè)人昵稱(chēng)后面標注尾號前四位2.通過(guò)號段名自動(dòng)匹配出原來(lái)的個(gè)人昵稱(chēng),自動(dòng)查詢(xún)3.查詢(xún)結果和個(gè)人昵稱(chēng)對不上,選擇人工匹配,輸入昵稱(chēng)4.選擇剛才選擇的人工匹配的人工昵稱(chēng)5.姓名的后面是生日,選擇輸入,點(diǎn)確定。套路二:個(gè)人昵稱(chēng)后面標注01是常見(jiàn)的桃色大號,一般會(huì )同時(shí)匹配兩個(gè)桃色微博。
  1,加10,點(diǎn)擊開(kāi)始匹配2,點(diǎn)擊發(fā)送,發(fā)送后重新查詢(xún)3,發(fā)送,重新匹配4,發(fā)送5,重新匹配結束套路三:通過(guò)首字母匹配可以查詢(xún)到高級匹配或更多字母的用戶(hù),自動(dòng)查詢(xún)具體可參考@泥水姬。
  新浪微博可以抓取哪些社交媒體的數據?-劉大鼎的回答-知乎,抓取別人首頁(yè)的微博,一般根據當前發(fā)布的內容去匹配。另外,需要考慮的就是你的首頁(yè)內容是否能進(jìn)入高級選項,這個(gè)也是和首頁(yè)評論區等相關(guān)聯(lián)的。
  
  去掉用戶(hù)頭像設置,不用標簽,進(jìn)不去就是假的。
  自己實(shí)驗了一下。
  在微博出現之前,知乎并沒(méi)有算法抓取功能,
  
  1、黑白名單(一般有不少人寫(xiě)過(guò)教程)
  2、郵件當然也有郵件過(guò)濾功能
  3、自己寫(xiě)程序數據抓取方法有以下幾種:要么花錢(qián)要么自己寫(xiě)要么加第三方接口方法一:花錢(qián)最通用的方法,而且要花錢(qián)去獲取,不花錢(qián)也沒(méi)什么意思,可能花的錢(qián)比直接抓取要貴。其實(shí)最簡(jiǎn)單的方法是去抓取微博用戶(hù)的主頁(yè)信息,直接從主頁(yè)地址進(jìn)去就可以抓取到了。第三方接口:大貓搜第三方接口比如說(shuō)大貓搜、大貓愛(ài)等等,一方面能抓取微博評論區和發(fā)布時(shí)間及個(gè)人主頁(yè)信息,另一方面也能抓取用戶(hù)頭像地址等重要信息,實(shí)用性很高。
  至于要花多少錢(qián)可以自己慢慢琢磨。方法二:自己寫(xiě)程序自己寫(xiě)一套個(gè)人介紹追蹤程序,從主頁(yè)抓取用戶(hù)昵稱(chēng)和標簽信息,達到追蹤的效果。另外,如果你要自己做抓取,微博的數據網(wǎng)上也可以抓取,具體怎么抓取的可以具體看我的專(zhuān)欄文章!關(guān)注我的專(zhuān)欄獲取更多爬蟲(chóng)和爬蟲(chóng)學(xué)習內容!。

優(yōu)化的解決方案:語(yǔ)義Web服務(wù)自動(dòng)組合及驗證的研究

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 65 次瀏覽 ? 2022-09-30 17:40 ? 來(lái)自相關(guān)話(huà)題

  優(yōu)化的解決方案:語(yǔ)義Web服務(wù)自動(dòng)組合及驗證的研究
  
  摘要: 面向服務(wù)架構(SOA)和面向服務(wù)計算(SOC)的出現為分布式應用和企業(yè)信息系統的集成提供了靈活的解決方案。由于單個(gè)Web服務(wù)的功能有限,如何將多個(gè)Web服務(wù)組合起來(lái)共同完成一項任務(wù)成為了工業(yè)界和學(xué)術(shù)界關(guān)注的焦點(diǎn)。同時(shí),通過(guò)Web服務(wù)技術(shù)和語(yǔ)義Web技術(shù)的結合,產(chǎn)生了多種語(yǔ)義Web服務(wù)描述框架,使得實(shí)現Web服務(wù)的自動(dòng)發(fā)現、組合、驗證和執行成為可能。結合國家863項目“面向解決方案的服務(wù)架構與支撐環(huán)境”,本文深入研究了語(yǔ)義Web服務(wù)組合的關(guān)鍵技術(shù),包括Web服務(wù)發(fā)現、Web服務(wù)自動(dòng)組合和Web服務(wù)過(guò)程驗證方法。成果包括以下幾個(gè)方面:(1)研究Web服務(wù)之間的關(guān)系,完善服務(wù)網(wǎng)絡(luò )的概念。結合語(yǔ)義Web服務(wù)相關(guān)技術(shù),從服務(wù)功能、抽象服務(wù)和具體服務(wù)的角度出發(fā)根據Web服務(wù)的概念,根據參數、操作、具體服務(wù)和抽象服務(wù)四個(gè)層次,定義Web服務(wù)不同粒度之間的潛在關(guān)系,并在此基礎上提出概念框架和體系給出了服務(wù)網(wǎng)絡(luò )的結構。(&lt; @2)研究了基于信息的語(yǔ)義Web服務(wù)的組合,提出了一種基于GraphPlan的啟發(fā)式服務(wù)組合算法。該算法根據信息化Web服務(wù)的特點(diǎn),將服務(wù)組合分為規劃圖構建和組合方案搜索兩個(gè)模塊。,可以在多項式時(shí)間內判斷服務(wù)組合的可滿(mǎn)足性。在規劃圖的構建中充分考慮了服務(wù)網(wǎng)絡(luò )中豐富的關(guān)系信息,在組合方案搜索模塊中采用了啟發(fā)式服務(wù)選擇策略。(3)研究了收錄信息和狀態(tài)變化的Web服務(wù)的混合服務(wù)組合問(wèn)題,設計并實(shí)現了一個(gè)基于抽象模板的自動(dòng)服務(wù)組合系統。系統面向服務(wù)網(wǎng)絡(luò )中的抽象服務(wù)層。主要工作是根據用戶(hù)的功能需求,充分復用以往解決用戶(hù)需求問(wèn)題的經(jīng)驗,配合模板預處理和啟發(fā)式自動(dòng)調整算法,完成抽象服務(wù)組合流程的構建。實(shí)驗表明,在外部環(huán)境相同的情況下,系統可以在較短的時(shí)間內實(shí)現服務(wù)的自動(dòng)組合,并且隨著(zhù)服務(wù)數量的增加,可以表現出更好的適應性。(4)研究了語(yǔ)義Web服務(wù)組合的驗證,提出了一種基于Petri網(wǎng)的服務(wù)組合一致性驗證方法。該方法可以在服務(wù)部署前檢測出潛在的組合邏輯不一致,從而提高服務(wù)組合。魯棒性和用戶(hù)滿(mǎn)意度。并通過(guò)一個(gè)實(shí)際案例驗證了該方法的正確性和有效性。
  
  整套解決方案:在線(xiàn)閱讀文檔系統開(kāi)發(fā)功能特性
  特征:
  多用戶(hù)、文檔轉換、在線(xiàn)閱讀
  操作環(huán)境:
  操作系統:Linux/Unix 或 Windows
  
  圖書(shū)館系統基于文獻系統知識,搭建平臺和領(lǐng)域,打造流量、用戶(hù)、支付、變現的閉環(huán),助您更好地構建圖書(shū)館系統。
  網(wǎng)站如果在搭建過(guò)程中遇到什么困難,可以留言或者叫我v:kjwenlc
  圖書(shū)館系統
  圖書(shū)館系統開(kāi)發(fā)特點(diǎn)介紹
  
  1、搜索功能
  庫 網(wǎng)站 通常在主頁(yè)頂部有一個(gè)搜索框。用戶(hù)可以通過(guò)搜索框輸入自己要搜索的關(guān)鍵詞,而不是按類(lèi)別搜索。
  2、今日推薦,熱門(mén)文檔
  圖書(shū)館首頁(yè)一般為用戶(hù)提供今日推薦和熱門(mén)文獻。今天的推薦顯示用戶(hù)查看更多的文檔,而熱門(mén)文檔是下載更多的文檔。 查看全部

  優(yōu)化的解決方案:語(yǔ)義Web服務(wù)自動(dòng)組合及驗證的研究
  
  摘要: 面向服務(wù)架構(SOA)和面向服務(wù)計算(SOC)的出現為分布式應用和企業(yè)信息系統的集成提供了靈活的解決方案。由于單個(gè)Web服務(wù)的功能有限,如何將多個(gè)Web服務(wù)組合起來(lái)共同完成一項任務(wù)成為了工業(yè)界和學(xué)術(shù)界關(guān)注的焦點(diǎn)。同時(shí),通過(guò)Web服務(wù)技術(shù)和語(yǔ)義Web技術(shù)的結合,產(chǎn)生了多種語(yǔ)義Web服務(wù)描述框架,使得實(shí)現Web服務(wù)的自動(dòng)發(fā)現、組合、驗證和執行成為可能。結合國家863項目“面向解決方案的服務(wù)架構與支撐環(huán)境”,本文深入研究了語(yǔ)義Web服務(wù)組合的關(guān)鍵技術(shù),包括Web服務(wù)發(fā)現、Web服務(wù)自動(dòng)組合和Web服務(wù)過(guò)程驗證方法。成果包括以下幾個(gè)方面:(1)研究Web服務(wù)之間的關(guān)系,完善服務(wù)網(wǎng)絡(luò )的概念。結合語(yǔ)義Web服務(wù)相關(guān)技術(shù),從服務(wù)功能、抽象服務(wù)和具體服務(wù)的角度出發(fā)根據Web服務(wù)的概念,根據參數、操作、具體服務(wù)和抽象服務(wù)四個(gè)層次,定義Web服務(wù)不同粒度之間的潛在關(guān)系,并在此基礎上提出概念框架和體系給出了服務(wù)網(wǎng)絡(luò )的結構。(&lt; @2)研究了基于信息的語(yǔ)義Web服務(wù)的組合,提出了一種基于GraphPlan的啟發(fā)式服務(wù)組合算法。該算法根據信息化Web服務(wù)的特點(diǎn),將服務(wù)組合分為規劃圖構建和組合方案搜索兩個(gè)模塊。,可以在多項式時(shí)間內判斷服務(wù)組合的可滿(mǎn)足性。在規劃圖的構建中充分考慮了服務(wù)網(wǎng)絡(luò )中豐富的關(guān)系信息,在組合方案搜索模塊中采用了啟發(fā)式服務(wù)選擇策略。(3)研究了收錄信息和狀態(tài)變化的Web服務(wù)的混合服務(wù)組合問(wèn)題,設計并實(shí)現了一個(gè)基于抽象模板的自動(dòng)服務(wù)組合系統。系統面向服務(wù)網(wǎng)絡(luò )中的抽象服務(wù)層。主要工作是根據用戶(hù)的功能需求,充分復用以往解決用戶(hù)需求問(wèn)題的經(jīng)驗,配合模板預處理和啟發(fā)式自動(dòng)調整算法,完成抽象服務(wù)組合流程的構建。實(shí)驗表明,在外部環(huán)境相同的情況下,系統可以在較短的時(shí)間內實(shí)現服務(wù)的自動(dòng)組合,并且隨著(zhù)服務(wù)數量的增加,可以表現出更好的適應性。(4)研究了語(yǔ)義Web服務(wù)組合的驗證,提出了一種基于Petri網(wǎng)的服務(wù)組合一致性驗證方法。該方法可以在服務(wù)部署前檢測出潛在的組合邏輯不一致,從而提高服務(wù)組合。魯棒性和用戶(hù)滿(mǎn)意度。并通過(guò)一個(gè)實(shí)際案例驗證了該方法的正確性和有效性。
  
  整套解決方案:在線(xiàn)閱讀文檔系統開(kāi)發(fā)功能特性
  特征:
  多用戶(hù)、文檔轉換、在線(xiàn)閱讀
  操作環(huán)境:
  操作系統:Linux/Unix 或 Windows
  
  圖書(shū)館系統基于文獻系統知識,搭建平臺和領(lǐng)域,打造流量、用戶(hù)、支付、變現的閉環(huán),助您更好地構建圖書(shū)館系統。
  網(wǎng)站如果在搭建過(guò)程中遇到什么困難,可以留言或者叫我v:kjwenlc
  圖書(shū)館系統
  圖書(shū)館系統開(kāi)發(fā)特點(diǎn)介紹
  
  1、搜索功能
  庫 網(wǎng)站 通常在主頁(yè)頂部有一個(gè)搜索框。用戶(hù)可以通過(guò)搜索框輸入自己要搜索的關(guān)鍵詞,而不是按類(lèi)別搜索。
  2、今日推薦,熱門(mén)文檔
  圖書(shū)館首頁(yè)一般為用戶(hù)提供今日推薦和熱門(mén)文獻。今天的推薦顯示用戶(hù)查看更多的文檔,而熱門(mén)文檔是下載更多的文檔。

最新版本:淘寶前端采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖截圖

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 72 次瀏覽 ? 2022-09-23 19:05 ? 來(lái)自相關(guān)話(huà)題

  最新版本:淘寶前端采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖截圖
  采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖參考:(軟件)使用的mfc腳本:flex-messagesfrommessages:formmessages可用的實(shí)現:github-calendar/main:subject_messages_reader,events-messages,processor:packageofsubjectmessages可用的方案:subject-reader:messagesreader,renderer:github-calendar/messages:messagesreader,renderer:github-tiberyu/performances:messagesstreamingstreaminputdeviceapidevelopmenthadoop需要搭建運行平臺github-mango/mobile:aquickpythonframeworktoreadonmobileexcess-lifedatabylightningorlightingintojavaandtaobao。
  
  淘寶前端的一個(gè)實(shí)現是基于html5開(kāi)發(fā)的,前端可以這樣做:ajax可以讀取json數據來(lái)寫(xiě)出jsonajax發(fā)起http請求后,獲取json然后寫(xiě)入回調數據,這樣完成一個(gè)簡(jiǎn)單的一鍵生成條形碼需要的工作,從json中抽取正負數,然后用兩個(gè)前端來(lái)寫(xiě)出正負數對應的回調數據ajax向這個(gè)回調數據中寫(xiě)入條形碼。
  
  然后在javascript中去讀取讀取回調數據,寫(xiě)入的json數據到后端處理?;旧纤悸肪褪沁@樣,建議用阿里的es,而且node.js模塊也挺多的。
  可以用anki之類(lèi)的軟件,輸入正負數的時(shí)候,模擬輸入,這樣模擬輸入中包含輸入,不然一鍵生成這個(gè)功能只能輸入一種數字。 查看全部

  最新版本:淘寶前端采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖截圖
  采集自動(dòng)組合鍵使用的軟件見(jiàn)末尾截圖參考:(軟件)使用的mfc腳本:flex-messagesfrommessages:formmessages可用的實(shí)現:github-calendar/main:subject_messages_reader,events-messages,processor:packageofsubjectmessages可用的方案:subject-reader:messagesreader,renderer:github-calendar/messages:messagesreader,renderer:github-tiberyu/performances:messagesstreamingstreaminputdeviceapidevelopmenthadoop需要搭建運行平臺github-mango/mobile:aquickpythonframeworktoreadonmobileexcess-lifedatabylightningorlightingintojavaandtaobao。
  
  淘寶前端的一個(gè)實(shí)現是基于html5開(kāi)發(fā)的,前端可以這樣做:ajax可以讀取json數據來(lái)寫(xiě)出jsonajax發(fā)起http請求后,獲取json然后寫(xiě)入回調數據,這樣完成一個(gè)簡(jiǎn)單的一鍵生成條形碼需要的工作,從json中抽取正負數,然后用兩個(gè)前端來(lái)寫(xiě)出正負數對應的回調數據ajax向這個(gè)回調數據中寫(xiě)入條形碼。
  
  然后在javascript中去讀取讀取回調數據,寫(xiě)入的json數據到后端處理?;旧纤悸肪褪沁@樣,建議用阿里的es,而且node.js模塊也挺多的。
  可以用anki之類(lèi)的軟件,輸入正負數的時(shí)候,模擬輸入,這樣模擬輸入中包含輸入,不然一鍵生成這個(gè)功能只能輸入一種數字。

采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 141 次瀏覽 ? 2022-09-20 16:20 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理
  
  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理,快速瀏覽高質(zhì)量的圖片和視頻~將圖片、視頻鏈接導入mysql后,通過(guò)mysql里的generate_time函數,mysql會(huì )自動(dòng)計算爬取最佳時(shí)間,當取得最佳時(shí)間后,則會(huì )實(shí)時(shí)抓??!一次抓取多個(gè)網(wǎng)站,相當節省人力和時(shí)間。一條指定鏈接,
  
<p>常用的小程序的小圖片,小視頻等常用的網(wǎng)頁(yè)都是爬取的小圖片,小視頻網(wǎng)站!比如百度圖片,優(yōu)酷,今日頭條等!步驟:第一步:選定圖片并生成鏈接發(fā)布:點(diǎn)擊新建圖片生成鏈接第二步:利用requests庫,抓取圖片網(wǎng)址并轉化為文本比如百度網(wǎng)站圖片生成關(guān)鍵字:spiderpython3-requests第三步:利用requests庫,獲取對應網(wǎng)站html中的圖片,并生成可以批量下載的文本json格式數據 查看全部

  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理
  
  采集自動(dòng)組合抓取器簡(jiǎn)單易用,抓取精準,批量處理,快速瀏覽高質(zhì)量的圖片和視頻~將圖片、視頻鏈接導入mysql后,通過(guò)mysql里的generate_time函數,mysql會(huì )自動(dòng)計算爬取最佳時(shí)間,當取得最佳時(shí)間后,則會(huì )實(shí)時(shí)抓??!一次抓取多個(gè)網(wǎng)站,相當節省人力和時(shí)間。一條指定鏈接,
  
<p>常用的小程序的小圖片,小視頻等常用的網(wǎng)頁(yè)都是爬取的小圖片,小視頻網(wǎng)站!比如百度圖片,優(yōu)酷,今日頭條等!步驟:第一步:選定圖片并生成鏈接發(fā)布:點(diǎn)擊新建圖片生成鏈接第二步:利用requests庫,抓取圖片網(wǎng)址并轉化為文本比如百度網(wǎng)站圖片生成關(guān)鍵字:spiderpython3-requests第三步:利用requests庫,獲取對應網(wǎng)站html中的圖片,并生成可以批量下載的文本json格式數據

采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 106 次瀏覽 ? 2022-08-31 12:05 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?
  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?gre實(shí)時(shí)人工智能語(yǔ)音相關(guān)訓練數據回放、訓練模型、優(yōu)化損失函數讓語(yǔ)音識別準確率更高
  
  謝邀目前不算復雜的模型,基本做數據或者人工輔助不如編程語(yǔ)言,因為可學(xué)習的參數較少。人工建模能力要好過(guò)編程語(yǔ)言。至于算法,可以去搜judge的一些資料,大部分算法是通用的。
  主要是考慮大規模數據訓練時(shí)候,讓計算平臺處理數據負擔太重。這時(shí)候,就需要選擇一些通用的開(kāi)發(fā)語(yǔ)言。
  
  其實(shí)這也取決于你用來(lái)干嘛,從你的目的上來(lái)講你需要以后能夠快速的實(shí)現部署應用,你的計算量也不算特別大,數據才幾個(gè)g,你更多還是希望能用人力去解決。那么python這種語(yǔ)言就可以勝任。用其他語(yǔ)言的話(huà)就可能你的計算量會(huì )比較大,數據量也不算特別大,所以用python這種語(yǔ)言來(lái)加速計算的話(huà)也更合適。個(gè)人愚見(jiàn),歡迎指正。
  用語(yǔ)言只是輔助而已,真正的核心不在于語(yǔ)言,在于算法模型和數據規模,都是有相應模型支持的,但真的大規模部署應用時(shí),使用通用計算框架還是有一定的優(yōu)勢,應用框架本身的代碼規范性也很好,grammarly其實(shí)就支持python語(yǔ)言,你可以試試,很好用,基本上java、php、python、c、javascript、scala都支持。 查看全部

  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?
  采集自動(dòng)組合固定有效數據大量賬號如何組合識別真實(shí)語(yǔ)音為唯一語(yǔ)言?gre實(shí)時(shí)人工智能語(yǔ)音相關(guān)訓練數據回放、訓練模型、優(yōu)化損失函數讓語(yǔ)音識別準確率更高
  
  謝邀目前不算復雜的模型,基本做數據或者人工輔助不如編程語(yǔ)言,因為可學(xué)習的參數較少。人工建模能力要好過(guò)編程語(yǔ)言。至于算法,可以去搜judge的一些資料,大部分算法是通用的。
  主要是考慮大規模數據訓練時(shí)候,讓計算平臺處理數據負擔太重。這時(shí)候,就需要選擇一些通用的開(kāi)發(fā)語(yǔ)言。
  
  其實(shí)這也取決于你用來(lái)干嘛,從你的目的上來(lái)講你需要以后能夠快速的實(shí)現部署應用,你的計算量也不算特別大,數據才幾個(gè)g,你更多還是希望能用人力去解決。那么python這種語(yǔ)言就可以勝任。用其他語(yǔ)言的話(huà)就可能你的計算量會(huì )比較大,數據量也不算特別大,所以用python這種語(yǔ)言來(lái)加速計算的話(huà)也更合適。個(gè)人愚見(jiàn),歡迎指正。
  用語(yǔ)言只是輔助而已,真正的核心不在于語(yǔ)言,在于算法模型和數據規模,都是有相應模型支持的,但真的大規模部署應用時(shí),使用通用計算框架還是有一定的優(yōu)勢,應用框架本身的代碼規范性也很好,grammarly其實(shí)就支持python語(yǔ)言,你可以試試,很好用,基本上java、php、python、c、javascript、scala都支持。

采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志(組圖)

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 162 次瀏覽 ? 2022-08-02 18:01 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志(組圖)
  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志,
  uri統計分析用生意寶,接口質(zhì)量好,缺點(diǎn)是開(kāi)發(fā)人員定制多些。統計效果還可以。質(zhì)量也還可以。還可以申請到產(chǎn)品定制化,如果公司產(chǎn)品適合這個(gè)接口形式,效果好,質(zhì)量高,建議直接申請。
  第三方的話(huà),可以通過(guò)easyrecoveryserver+調用率來(lái)看,但是想要做比較全面的報表的話(huà),需要稍微做些封裝,因為有些數據是不能隨便掃描而獲取,為了避免此類(lèi)情況發(fā)生,需要一些開(kāi)發(fā)知識,
  
  我覺(jué)得craigslist也應該能做呀,不然現在他們的api都這么高了。
  用craigslist
  可以從數據源頭采集,也可以從其他渠道(比如:自己做統計模型)抓取,或者為了實(shí)現報表(就是你說(shuō)的篩選/審查內容),每天填報至api,如果前期沒(méi)有數據積累,很容易后期就只能依靠你自己增加人力來(lái)填了...
  用api也好不用api也好各有優(yōu)缺點(diǎn),不能一概而論。然后一般要是上架一些第三方分析工具或者數據分析平臺也可以,目前感覺(jué)美橙互聯(lián)和大學(xué)畢業(yè)生還不錯,可以提供個(gè)數據接口。我試用過(guò)一些第三方還是覺(jué)得本地統計效果會(huì )好些。
  
  我一直在用用數可以查看評論趨勢、評論分析
  1、要是有持續更新的數據,就做流量統計和行為軌跡分析。你可以花錢(qián)買(mǎi)這兩個(gè)數據。
  2、平時(shí)沒(méi)事多看看天氣、新聞;上班路上一兩個(gè)小時(shí)的統計;開(kāi)會(huì )時(shí)的評論記錄;坐地鐵去的路上的記錄。這些都是有價(jià)值的數據。
  3、要是沒(méi)事就是這個(gè)行業(yè)熱點(diǎn)事件,大事件,可以打開(kāi)官網(wǎng)列表,你就能發(fā)現他們在哪有活動(dòng),有要出什么大事。 查看全部

  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志(組圖)
  采集自動(dòng)組合post或websocket請求同時(shí)記錄error日志,
  uri統計分析用生意寶,接口質(zhì)量好,缺點(diǎn)是開(kāi)發(fā)人員定制多些。統計效果還可以。質(zhì)量也還可以。還可以申請到產(chǎn)品定制化,如果公司產(chǎn)品適合這個(gè)接口形式,效果好,質(zhì)量高,建議直接申請。
  第三方的話(huà),可以通過(guò)easyrecoveryserver+調用率來(lái)看,但是想要做比較全面的報表的話(huà),需要稍微做些封裝,因為有些數據是不能隨便掃描而獲取,為了避免此類(lèi)情況發(fā)生,需要一些開(kāi)發(fā)知識,
  
  我覺(jué)得craigslist也應該能做呀,不然現在他們的api都這么高了。
  用craigslist
  可以從數據源頭采集,也可以從其他渠道(比如:自己做統計模型)抓取,或者為了實(shí)現報表(就是你說(shuō)的篩選/審查內容),每天填報至api,如果前期沒(méi)有數據積累,很容易后期就只能依靠你自己增加人力來(lái)填了...
  用api也好不用api也好各有優(yōu)缺點(diǎn),不能一概而論。然后一般要是上架一些第三方分析工具或者數據分析平臺也可以,目前感覺(jué)美橙互聯(lián)和大學(xué)畢業(yè)生還不錯,可以提供個(gè)數據接口。我試用過(guò)一些第三方還是覺(jué)得本地統計效果會(huì )好些。
  
  我一直在用用數可以查看評論趨勢、評論分析
  1、要是有持續更新的數據,就做流量統計和行為軌跡分析。你可以花錢(qián)買(mǎi)這兩個(gè)數據。
  2、平時(shí)沒(méi)事多看看天氣、新聞;上班路上一兩個(gè)小時(shí)的統計;開(kāi)會(huì )時(shí)的評論記錄;坐地鐵去的路上的記錄。這些都是有價(jià)值的數據。
  3、要是沒(méi)事就是這個(gè)行業(yè)熱點(diǎn)事件,大事件,可以打開(kāi)官網(wǎng)列表,你就能發(fā)現他們在哪有活動(dòng),有要出什么大事。

采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingserversngservers)程序

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 154 次瀏覽 ? 2022-07-16 03:04 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingserversngservers)程序
  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingservers)可將mongodb的sha256值分解成隨機值或隨機編碼,利用這些值恢復mongodb中每個(gè)數據塊所使用的hash值。
  對于一個(gè)可重試的mongodb連接可實(shí)現零錯誤恢復。采集default的hashpoolconverters程序中的高級功能每次都將會(huì )產(chǎn)生一個(gè)隨機的executableencryptioncode用于生成一個(gè)新的內部加密密鑰,這個(gè)內部加密密鑰是在生成的內部加密密鑰中設定的,其作用是為每個(gè)mongodb對象賦予新的內部加密密鑰。
  
  這些設定的隨機密鑰對是通過(guò)查詢(xún)列表(querylist)的路徑逐級查詢(xún)得到的。每個(gè)mongodb對象的每個(gè)實(shí)例都可以獲得特定實(shí)例對應的無(wú)鑰鑰匙對。例如mongodbcollection擁有2個(gè)不同實(shí)例(mongodbcollectionproperties)。那么可以查詢(xún)任意實(shí)例對應的hashpoolconverters程序中的程序員可以通過(guò)如下parsetree參數獲得3個(gè)hashpoolconverters(實(shí)例對應的隨機內部加密密鑰(hashpoolsha256)={name:"a",secret:"zhangsan",required:"accesskey"})。
  直至完成此操作,程序員需要使用check函數回收內部加密密鑰,否則程序將無(wú)法進(jìn)行加密密鑰校驗操作。采集hashpoolconverters程序在運行時(shí)會(huì )產(chǎn)生一個(gè)linkedhashpool結構表,儲存所有被依次查詢(xún)過(guò)的所有對象的hash值。這些hash值按如下順序依次儲存于hashpoolconverters的下一頁(yè)記錄中:linkedhashpoolsize、hashpoolconfig、hashpoolpublickeykey、indexsize、executablesize。
  
  建議選擇默認的尺寸即index(“xxx”)來(lái)查看多個(gè)對象實(shí)例對應的hashconfig。hashpoolconfig中可以配置這些編碼:1、輸入可輸入hashpool_config,或mongodb-config-hashpool,或mongodb-portal-hashpoolassetssourcesize:mongodb是一個(gè)namespace,而portal是一個(gè)namespace,即specifiedentityaddress(smb),所以默認linkedhashpool_config在entityaddress是smb而非mongodb的情況下,后端設置輸入outputsize要選擇“scaletoatleastnumberofpages”。
  sha256默認值為128,若對configoutputsize設置為128則默認對configoutputsize進(jìn)行了16次減半操作。在hashpool_config中顯示保存了所有實(shí)例對應的hashconfig,設置linkedhashpool_config中的大小是可選的,另外設置configoutputsize有更多方便控制效率的好處。
  linkedhashpool_config:實(shí)例對應的hashconfigoutputsize對于實(shí)例保存在entityaddress(smb),且configoutputsize是configout。 查看全部

  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingserversngservers)程序
  采集自動(dòng)組合hashpoolconverters程序(freehashpoolconverters-allavailablehashpoolenginediscretehashpollingservers)可將mongodb的sha256值分解成隨機值或隨機編碼,利用這些值恢復mongodb中每個(gè)數據塊所使用的hash值。
  對于一個(gè)可重試的mongodb連接可實(shí)現零錯誤恢復。采集default的hashpoolconverters程序中的高級功能每次都將會(huì )產(chǎn)生一個(gè)隨機的executableencryptioncode用于生成一個(gè)新的內部加密密鑰,這個(gè)內部加密密鑰是在生成的內部加密密鑰中設定的,其作用是為每個(gè)mongodb對象賦予新的內部加密密鑰。
  
  這些設定的隨機密鑰對是通過(guò)查詢(xún)列表(querylist)的路徑逐級查詢(xún)得到的。每個(gè)mongodb對象的每個(gè)實(shí)例都可以獲得特定實(shí)例對應的無(wú)鑰鑰匙對。例如mongodbcollection擁有2個(gè)不同實(shí)例(mongodbcollectionproperties)。那么可以查詢(xún)任意實(shí)例對應的hashpoolconverters程序中的程序員可以通過(guò)如下parsetree參數獲得3個(gè)hashpoolconverters(實(shí)例對應的隨機內部加密密鑰(hashpoolsha256)={name:"a",secret:"zhangsan",required:"accesskey"})。
  直至完成此操作,程序員需要使用check函數回收內部加密密鑰,否則程序將無(wú)法進(jìn)行加密密鑰校驗操作。采集hashpoolconverters程序在運行時(shí)會(huì )產(chǎn)生一個(gè)linkedhashpool結構表,儲存所有被依次查詢(xún)過(guò)的所有對象的hash值。這些hash值按如下順序依次儲存于hashpoolconverters的下一頁(yè)記錄中:linkedhashpoolsize、hashpoolconfig、hashpoolpublickeykey、indexsize、executablesize。
  
  建議選擇默認的尺寸即index(“xxx”)來(lái)查看多個(gè)對象實(shí)例對應的hashconfig。hashpoolconfig中可以配置這些編碼:1、輸入可輸入hashpool_config,或mongodb-config-hashpool,或mongodb-portal-hashpoolassetssourcesize:mongodb是一個(gè)namespace,而portal是一個(gè)namespace,即specifiedentityaddress(smb),所以默認linkedhashpool_config在entityaddress是smb而非mongodb的情況下,后端設置輸入outputsize要選擇“scaletoatleastnumberofpages”。
  sha256默認值為128,若對configoutputsize設置為128則默認對configoutputsize進(jìn)行了16次減半操作。在hashpool_config中顯示保存了所有實(shí)例對應的hashconfig,設置linkedhashpool_config中的大小是可選的,另外設置configoutputsize有更多方便控制效率的好處。
  linkedhashpool_config:實(shí)例對應的hashconfigoutputsize對于實(shí)例保存在entityaddress(smb),且configoutputsize是configout。

采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 135 次瀏覽 ? 2022-07-10 01:02 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式
  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式flv/mp4-250m/300m-單次/每小時(shí)更新一次-統一更新每次一個(gè)(視頻另存在一個(gè)文件夾,最好放在c盤(pán))選擇clone.bat或者clone.exe,打開(kāi)程序clone_bat,雙擊即可進(jìn)入單步驟操作記錄新建腳本-格式-要儲存哪一個(gè)武器-電腦名稱(chēng)-頻率-時(shí)間戳保存文件-保存-開(kāi)始組合。
  輸入以下命令-int12/8,1**/8,1**/8,2**/8//或者int12的二進(jìn)制格式0.0.0.0-int12/8,1**/8,2**/8//如果頻率為1表示一次只能更新一個(gè)武器。
  
  卡馬克開(kāi)發(fā)的replaycalibrate插件
  都是百度出來(lái)的用兩個(gè)cmd命令編輯一下f10并且保存就可以進(jìn)行組合動(dòng)作
  現在一般是flash文件
  
  以前是用文本文檔,可以導出為其他格式,不過(guò)會(huì )有內容丟失。如果選擇好的平臺的話(huà),可以考慮下php語(yǔ)言腳本。比如wordpress做的replaypro,用這種文件夾式視頻組合腳本可以導出為很多格式,包括.exe格式。
  能在php里寫(xiě)的的話(huà)還是用php寫(xiě)吧,操作系統的話(huà)真的推薦python,windows上的話(huà)也可以考慮.net也不錯。
  本人沒(méi)有接觸過(guò)復雜的腳本,以下講解僅供參考。從事網(wǎng)頁(yè)編程工作10年來(lái),對瀏覽器的開(kāi)發(fā)和遠程抓?。ù笥诘扔?0g以?xún)龋┓矫嬷R也算比較豐富,參考資料:1.卡馬克(chrome,netscape9.0/11,原為chrome)手機版webkit不可訪(fǎng)問(wèn)(后經(jīng)補充)2.奇虎360-騰訊web服務(wù)器-機鋒市場(chǎng)-迅雷安全中心3.1pcgage.pdf+國外chrome的抓取腳本源碼:http/1.1200okthengottobeindexed.4.正經(jīng)點(diǎn)的參考:我的個(gè)人博客有些圖片不是有手機版本,這些圖片都是站長(cháng)提供的,要支持這些圖片我選擇的是(曾經(jīng)分享過(guò))picasa。
  圖片文件處理使用imageio(好處是直接支持(批量為)圖片處理,不限畫(huà)質(zhì)、尺寸)。你也可以打包(progressive+xml)使用你的php文件或json格式的文件,然后createjsxmlcontainer這樣的東西??茨愕牟呗?,如果不允許保存(可以看下我的blog)。 查看全部

  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式
  采集自動(dòng)組合技能儲存箱戰斗腳本視頻可用文件格式flv/mp4-250m/300m-單次/每小時(shí)更新一次-統一更新每次一個(gè)(視頻另存在一個(gè)文件夾,最好放在c盤(pán))選擇clone.bat或者clone.exe,打開(kāi)程序clone_bat,雙擊即可進(jìn)入單步驟操作記錄新建腳本-格式-要儲存哪一個(gè)武器-電腦名稱(chēng)-頻率-時(shí)間戳保存文件-保存-開(kāi)始組合。
  輸入以下命令-int12/8,1**/8,1**/8,2**/8//或者int12的二進(jìn)制格式0.0.0.0-int12/8,1**/8,2**/8//如果頻率為1表示一次只能更新一個(gè)武器。
  
  卡馬克開(kāi)發(fā)的replaycalibrate插件
  都是百度出來(lái)的用兩個(gè)cmd命令編輯一下f10并且保存就可以進(jìn)行組合動(dòng)作
  現在一般是flash文件
  
  以前是用文本文檔,可以導出為其他格式,不過(guò)會(huì )有內容丟失。如果選擇好的平臺的話(huà),可以考慮下php語(yǔ)言腳本。比如wordpress做的replaypro,用這種文件夾式視頻組合腳本可以導出為很多格式,包括.exe格式。
  能在php里寫(xiě)的的話(huà)還是用php寫(xiě)吧,操作系統的話(huà)真的推薦python,windows上的話(huà)也可以考慮.net也不錯。
  本人沒(méi)有接觸過(guò)復雜的腳本,以下講解僅供參考。從事網(wǎng)頁(yè)編程工作10年來(lái),對瀏覽器的開(kāi)發(fā)和遠程抓?。ù笥诘扔?0g以?xún)龋┓矫嬷R也算比較豐富,參考資料:1.卡馬克(chrome,netscape9.0/11,原為chrome)手機版webkit不可訪(fǎng)問(wèn)(后經(jīng)補充)2.奇虎360-騰訊web服務(wù)器-機鋒市場(chǎng)-迅雷安全中心3.1pcgage.pdf+國外chrome的抓取腳本源碼:http/1.1200okthengottobeindexed.4.正經(jīng)點(diǎn)的參考:我的個(gè)人博客有些圖片不是有手機版本,這些圖片都是站長(cháng)提供的,要支持這些圖片我選擇的是(曾經(jīng)分享過(guò))picasa。
  圖片文件處理使用imageio(好處是直接支持(批量為)圖片處理,不限畫(huà)質(zhì)、尺寸)。你也可以打包(progressive+xml)使用你的php文件或json格式的文件,然后createjsxmlcontainer這樣的東西??茨愕牟呗?,如果不允許保存(可以看下我的blog)。

采集自動(dòng)組合apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,抓取

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 139 次瀏覽 ? 2022-07-03 20:00 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,抓取
  采集自動(dòng)組合
  apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,
  超級夜貓子沒(méi)錢(qián)
  
  手機qq
  是剛出的不可以嗎?db可以搜到icp資源。
  很有趣的想法,大小2個(gè)人手機端分別連wifi后,互相監控,加速,分時(shí)模擬在線(xiàn)和離線(xiàn)的狀態(tài)。
  1)eggos可以嘗試:tonymoly82/eggos·github這款產(chǎn)品你可以看看,百度有pdf版本,v4版本,比官方的,移動(dòng)app友好:)3.軟件好不好,看運營(yíng)策略和產(chǎn)品規劃。游戲用,游戲差不多好,支持多設備,手機就可以聯(lián)網(wǎng)。
  
  3)talk的一些組件:covmount/talk-scrm·github,可以在手機端實(shí)現客服,熱點(diǎn)區域,離線(xiàn)狀態(tài)等,api基本互通,
  4)還有一些推薦,小團隊短時(shí)間內可以看看自己的需求,功能開(kāi)發(fā),但是否被蘋(píng)果3dmark11,記錄玩家在線(xiàn)與離線(xiàn)狀態(tài),可以預期,國內的產(chǎn)品app肯定不能自動(dòng)抓取,國外的可以。
  5)你可以設計個(gè)自動(dòng)被抓取的端,只要手機搜索一下,你設定的tag下,你想抓取什么類(lèi)型的數據,app就會(huì )自動(dòng)抓取對應的數據,但是自動(dòng)抓取前,會(huì )給你規定當前的pv(新訪(fǎng)問(wèn)量)和游戲類(lèi)型。
  6)運營(yíng)的營(yíng)銷(xiāo)過(guò)程中,抓取的詞,也可以作為話(huà)題詞來(lái)做分析??傮w上,多接入大的平臺是個(gè)好事,但還有很多事情要做,還在摸索中。-另外這類(lèi)軟件如果有云端也可以考慮下。 查看全部

  采集自動(dòng)組合apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,抓取
  采集自動(dòng)組合
  apc弱雞,你需要無(wú)損點(diǎn)對點(diǎn)抓取,
  超級夜貓子沒(méi)錢(qián)
  
  手機qq
  是剛出的不可以嗎?db可以搜到icp資源。
  很有趣的想法,大小2個(gè)人手機端分別連wifi后,互相監控,加速,分時(shí)模擬在線(xiàn)和離線(xiàn)的狀態(tài)。
  1)eggos可以嘗試:tonymoly82/eggos·github這款產(chǎn)品你可以看看,百度有pdf版本,v4版本,比官方的,移動(dòng)app友好:)3.軟件好不好,看運營(yíng)策略和產(chǎn)品規劃。游戲用,游戲差不多好,支持多設備,手機就可以聯(lián)網(wǎng)。
  
  3)talk的一些組件:covmount/talk-scrm·github,可以在手機端實(shí)現客服,熱點(diǎn)區域,離線(xiàn)狀態(tài)等,api基本互通,
  4)還有一些推薦,小團隊短時(shí)間內可以看看自己的需求,功能開(kāi)發(fā),但是否被蘋(píng)果3dmark11,記錄玩家在線(xiàn)與離線(xiàn)狀態(tài),可以預期,國內的產(chǎn)品app肯定不能自動(dòng)抓取,國外的可以。
  5)你可以設計個(gè)自動(dòng)被抓取的端,只要手機搜索一下,你設定的tag下,你想抓取什么類(lèi)型的數據,app就會(huì )自動(dòng)抓取對應的數據,但是自動(dòng)抓取前,會(huì )給你規定當前的pv(新訪(fǎng)問(wèn)量)和游戲類(lèi)型。
  6)運營(yíng)的營(yíng)銷(xiāo)過(guò)程中,抓取的詞,也可以作為話(huà)題詞來(lái)做分析??傮w上,多接入大的平臺是個(gè)好事,但還有很多事情要做,還在摸索中。-另外這類(lèi)軟件如果有云端也可以考慮下。

KDD 2019 | 自動(dòng)探索特征組合,第四范式提出新方法AutoCross

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 106 次瀏覽 ? 2022-06-22 23:32 ? 來(lái)自相關(guān)話(huà)題

  KDD 2019 | 自動(dòng)探索特征組合,第四范式提出新方法AutoCross
  涂威威、陳雨強、楊強、戴文淵
  特征組合是提高模型效果的重要手段,但依靠專(zhuān)家手動(dòng)探索和試錯成本過(guò)高且過(guò)于繁瑣。于是,第四范式提出了一種新型特征組合方法 AutoCross,該方法可在實(shí)際應用中自動(dòng)實(shí)現表數據的特征組合,提高機器學(xué)習算法的預測能力,并提升效率和有效性。目前,該論文已被數據挖掘領(lǐng)域頂會(huì ) KDD 2019 接收。
  論文簡(jiǎn)介
  論文:AutoCross: Automatic Feature Crossing for Tabular Data in Real-World Applications
  論文鏈接:
  本文提出了一種在實(shí)際應用中自動(dòng)實(shí)現表數據特征組合的方法 AutoCross。該方法可以獲得特征之間有用的相互作用,并提高機器學(xué)習算法的預測能力。該方法利用集束搜索策略(beam search strategy)構建有效的組合特征,其中包含尚未被現有工作覆蓋的高階(兩個(gè)以上)特征組合,彌補了此前工作的不足。
  此外,該研究提出了連續小批量梯度下降和多粒度離散化,以進(jìn)一步提高效率和有效性,同時(shí)確保簡(jiǎn)單,無(wú)需機器學(xué)習專(zhuān)業(yè)知識或冗長(cháng)的超參數調整。這些算法旨在降低分布式計算中涉及的計算、傳輸和存儲成本。在基準數據集和真實(shí)業(yè)務(wù)數據集上的實(shí)驗結果表明,AutoCross 可以顯著(zhù)提高線(xiàn)性模型和深度模型對表數據的學(xué)習能力和性能,優(yōu)于其他基于搜索和深度學(xué)習的特征生成方法,進(jìn)一步證明了其有效性和效率。
  背景介紹
  近年來(lái),機器學(xué)習雖然已在推薦系統、在線(xiàn)廣告、金融市場(chǎng)分析等諸多領(lǐng)域取得了很多成功,但在這些成功的應用中,人類(lèi)專(zhuān)家參與了機器學(xué)習的所有階段,包括:定義問(wèn)題、收集數據、特征工程、調整模型超參數,模型評估等。
  而這些任務(wù)的復雜性往往超出了非機器學(xué)習專(zhuān)家的能力范圍。機器學(xué)習技術(shù)使用門(mén)檻高、專(zhuān)家成本高昂等問(wèn)題成為了制約 AI 普及的關(guān)鍵因素。因此,AutoML 的出現被視為提高機器學(xué)習易用性的一種最有效方法,通過(guò)技術(shù)手段減少對人類(lèi)專(zhuān)家的依賴(lài),讓更多的人應用 AI,獲得更大的社會(huì )和商業(yè)效益。
  眾所周知,機器學(xué)習的性能很大程度上取決于特征的質(zhì)量。由于原始特征很少產(chǎn)生令人滿(mǎn)意的結果,因此通常要對特征進(jìn)行組合,以更好地表示數據并提高學(xué)習性能。例如在新聞推薦中,若只有新聞類(lèi)型、用戶(hù) ID 兩類(lèi)特征,模型只能分別預測不同新聞類(lèi)型或不同用戶(hù) ID 對點(diǎn)擊率的影響。通過(guò)加入新聞類(lèi)型 x 用戶(hù) ID 組合特征,模型就可學(xué)習到一個(gè)用戶(hù)對不同新聞的偏好。再加入時(shí)間等特征進(jìn)行高階組合,模型就可對一個(gè)用戶(hù)在不同時(shí)間對不同新聞的偏好進(jìn)行預測,提升模型的個(gè)性化預測能力。
  特征組合作為提高模型效果的重要手段,以往大多需要構建龐大的數據科學(xué)家團隊,依靠他們的經(jīng)驗進(jìn)行探索和試錯,但繁瑣、低效的過(guò)程令科學(xué)家十分痛苦,且并非所有企業(yè)都能承受高昂的成本。
  第四范式從很早便開(kāi)始關(guān)注并深耕 AutoML 領(lǐng)域,從解決客戶(hù)業(yè)務(wù)核心增長(cháng)的角度出發(fā),構建了反欺詐、個(gè)性化推薦等業(yè)務(wù)場(chǎng)景下的 AutoML,并將其賦能給企業(yè)的普通開(kāi)發(fā)人員,取得了接近甚至超過(guò)數據科學(xué)家的業(yè)務(wù)效果。其中,AutoCross 發(fā)揮了重要的作用。
  痛點(diǎn)
  特征組合是對從數據中提取的海量原始特征進(jìn)行組合的過(guò)程,采用稀疏特征叉乘得出組合特征。在線(xiàn)性模型如 LR 只能刻畫(huà)特征間的線(xiàn)性關(guān)系、表達能力受限,而非線(xiàn)性模型如 GBDT 不能應用于大規模離散特征場(chǎng)景的情況下,特征組合能夠增加數據的非線(xiàn)性,從而提高性能。
  但枚舉所有組合特性,理論上很難做到,因為可能的組合特征數是指數級的,同時(shí)暴力添加特征可能會(huì )導致學(xué)習性能下降,因為它們可能是無(wú)關(guān)的或冗余的特征,從而增加學(xué)習難度。
  雖然深度神經(jīng)網(wǎng)絡(luò )可自動(dòng)構建高階特征 (generate high-order features),但面對大多數以表形式呈現的業(yè)務(wù)數據,最先進(jìn)的基于深度學(xué)習的方法無(wú)法有效涵蓋所有高階組合特征,且存在可解釋性差、計算成本高等弊端。該論文投稿時(shí),最先進(jìn)的深度學(xué)習方法是 xDeepFM [1]。這篇論文證明了 xDeepFM 可生成的特征是 AutoCross 可生成特征嵌入(embedding)的子集。
  AutoCross 的優(yōu)勢
  實(shí)現過(guò)程
  給定訓練數據
  
  ,并將其劃分為訓練集
  
  和驗證集
  
  。我們可以用一個(gè)特征集合 S 來(lái)表示
  
  ,并用學(xué)習算法 L 訓練一個(gè)模型
  
  。之后,用驗證集和同一個(gè)特征集合 S 計算一個(gè)需要被最大化的指標
  
  。特征組合搜索問(wèn)題可以定義為搜索一個(gè)最優(yōu)子特征集的問(wèn)題:
  
  其中 F 是
  
  的原始特征集合,
  
  包含 F 所有原始特征以及基于 F 可生成的所有組合特征。
  但是,假設原始特征數為 d,則上述問(wèn)題中所有可能解的數量是
  
  ,搜索空間巨大。為了提高搜索效率,AutoCross 將搜索最優(yōu)子特征集的問(wèn)題轉換為用貪婪策略逐步構建較優(yōu)解的問(wèn)題。首先,AutoCross 考慮一個(gè)樹(shù)結構的搜索空間
 ?。▓D 3),其中每一個(gè)節點(diǎn)表示一個(gè)子特征集。之后,用集束搜索策略在
  上搜索較優(yōu)解。通過(guò)這種方法,AutoCross 只需要訪(fǎng)問(wèn)
  
  個(gè)候選解,極大地提高了搜索效率。AutoCross 的整體算法如算法 1 所示。
  
  
  算法 1 中的一個(gè)關(guān)鍵步驟是評估候選特征集。最直接的方法是用每個(gè)候選特征集訓練模型并評估其性能,但是這種方法計算代價(jià)巨大,難以在搜索過(guò)程中反復執行。為了提高特征集評估的效率,AutoCross 提出了逐域對數幾率回歸(field-wise logistic regression)和連續批訓練梯度下降(successive mini-batch gradient descent)方法。
  為了提高特征集評估效率,逐域對數幾率回歸作出兩種近似。首先,用特征集在對數幾率回歸模型上的表現近似最終將使用這個(gè)特征集的模型上的表現;其次,在考慮
  中一個(gè)節點(diǎn)的子節點(diǎn)時(shí),不改變該節點(diǎn)包含特征對應的權重(weight),僅訓練子節點(diǎn)新增特征的權重。
  圖 4 說(shuō)明了如何將逐域對數幾率回歸部署在參數服務(wù)器架構上。逐域對數幾率回歸與參數服務(wù)器的結合可以提高特征集評估的存儲效率、傳輸效率和計算效率。在逐域對數幾率回歸訓練結束后,AutoCross 計算訓練得模型的指標,并以此方法來(lái)評估每一個(gè)候選特征集。
  
  AutoCross 采用連續批訓練梯度下降方法進(jìn)一步提高特征集評估的效率。該方法借鑒 successive halving 算法 [2],認為每一個(gè)候選特征集是 multi-arm bandit 問(wèn)題中的一個(gè) arm,對一個(gè)特征集用一個(gè)數據塊進(jìn)行權重更新相當于拉了一次對應的 arm,其回報為該次訓練后的驗證集 AUC。
  具體算法見(jiàn)算法 2,算法 2 中唯一的參數是數據塊的數量 N。N 可以根據數據的大小和計算環(huán)境自適應地確定。在使用連續批訓練梯度下降時(shí),用戶(hù)不需要像使用傳統的 subsampling 方法一樣調整 mini-batch 的尺寸和采樣率。
  
  為了支持數值特征與離散特征的組合,AutoCross 在預處理時(shí)將數值特征離散化為離散特征。AutoCross 提出了多粒度離散化(multi-granularity discretization)方法,使得用戶(hù)不需要反復調整離散化的粒度。多粒度離散化思想簡(jiǎn)單:將每一個(gè)數值特征,根據不同粒度劃分為多個(gè)離散特征。然后采用逐域對數幾率回歸挑選出最優(yōu)的離散特征。多個(gè)劃分粒度既可以由用戶(hù)指定,也可以由 AutoCross 根據數據大小和計算環(huán)境來(lái)自適應地選擇,從而降低了用戶(hù)的使用難度。
  實(shí)驗結果
  該論文在十個(gè)數據集(五個(gè)公開(kāi)、五個(gè)實(shí)際業(yè)務(wù))上進(jìn)行了實(shí)驗。比較的方法包括:
  效果比較:如下表 3 所示,AC+LR 和 AC+W&D 在大部分數據集上的排名都在前兩位。這體現了 AutoCross 產(chǎn)生的特征不僅可以增強 LR 模型,也可以用于提高深度學(xué)習模型的性能,并且 AC+LR 和 AC+W&D 的效果都優(yōu)于 xDeepFM。如之前所說(shuō),xDeepFM 所生成的特征不能完全包含 AutoCross 生成的特征。這些結果體現出顯式生成高階組合特征的效果優(yōu)勢。
  
  高階特征的作用:見(jiàn)表 5 和圖 6。從中可以得出,高階組合特征可以有效提高模型性能。
  
  時(shí)間消耗:見(jiàn)表 6、圖 7(主要做展示用)。
  
  
  推斷延遲:見(jiàn)表 7。從中可以得出:AC+LR 的推斷速度比 AC+W&D、Deep、xDeepFM 快幾個(gè)數量級。這說(shuō)明 AutoCross 不僅可以提高模型表現,同時(shí)保證了很低的推斷延遲。
  
  參考文獻
  [1] J. Lian, X. Zhou, F. Zhang, Z. Chen, X. Xie, and G. Sun. 2018. xDeepFM: Com- bining Explicit and Implicit Feature Interactions for Recommender Systems. In International Conference on Knowledge Discovery & Data Mining.
  [2] K. Jamieson and A. Talwalkar. 2016. Non-stochastic best arm identification and hyperparameter optimization. In Artificial Intelligence and Statistics. 240–248.
  [3] O. Chapelle, E. Manavoglu, and R. Rosales. 2015. Simple and scalable response prediction for display advertising. ACM Transactions on Intelligent Systems and Technology (TIST) 5, 4 (2015), 61. 查看全部

  KDD 2019 | 自動(dòng)探索特征組合,第四范式提出新方法AutoCross
  涂威威、陳雨強、楊強、戴文淵
  特征組合是提高模型效果的重要手段,但依靠專(zhuān)家手動(dòng)探索和試錯成本過(guò)高且過(guò)于繁瑣。于是,第四范式提出了一種新型特征組合方法 AutoCross,該方法可在實(shí)際應用中自動(dòng)實(shí)現表數據的特征組合,提高機器學(xué)習算法的預測能力,并提升效率和有效性。目前,該論文已被數據挖掘領(lǐng)域頂會(huì ) KDD 2019 接收。
  論文簡(jiǎn)介
  論文:AutoCross: Automatic Feature Crossing for Tabular Data in Real-World Applications
  論文鏈接:
  本文提出了一種在實(shí)際應用中自動(dòng)實(shí)現表數據特征組合的方法 AutoCross。該方法可以獲得特征之間有用的相互作用,并提高機器學(xué)習算法的預測能力。該方法利用集束搜索策略(beam search strategy)構建有效的組合特征,其中包含尚未被現有工作覆蓋的高階(兩個(gè)以上)特征組合,彌補了此前工作的不足。
  此外,該研究提出了連續小批量梯度下降和多粒度離散化,以進(jìn)一步提高效率和有效性,同時(shí)確保簡(jiǎn)單,無(wú)需機器學(xué)習專(zhuān)業(yè)知識或冗長(cháng)的超參數調整。這些算法旨在降低分布式計算中涉及的計算、傳輸和存儲成本。在基準數據集和真實(shí)業(yè)務(wù)數據集上的實(shí)驗結果表明,AutoCross 可以顯著(zhù)提高線(xiàn)性模型和深度模型對表數據的學(xué)習能力和性能,優(yōu)于其他基于搜索和深度學(xué)習的特征生成方法,進(jìn)一步證明了其有效性和效率。
  背景介紹
  近年來(lái),機器學(xué)習雖然已在推薦系統、在線(xiàn)廣告、金融市場(chǎng)分析等諸多領(lǐng)域取得了很多成功,但在這些成功的應用中,人類(lèi)專(zhuān)家參與了機器學(xué)習的所有階段,包括:定義問(wèn)題、收集數據、特征工程、調整模型超參數,模型評估等。
  而這些任務(wù)的復雜性往往超出了非機器學(xué)習專(zhuān)家的能力范圍。機器學(xué)習技術(shù)使用門(mén)檻高、專(zhuān)家成本高昂等問(wèn)題成為了制約 AI 普及的關(guān)鍵因素。因此,AutoML 的出現被視為提高機器學(xué)習易用性的一種最有效方法,通過(guò)技術(shù)手段減少對人類(lèi)專(zhuān)家的依賴(lài),讓更多的人應用 AI,獲得更大的社會(huì )和商業(yè)效益。
  眾所周知,機器學(xué)習的性能很大程度上取決于特征的質(zhì)量。由于原始特征很少產(chǎn)生令人滿(mǎn)意的結果,因此通常要對特征進(jìn)行組合,以更好地表示數據并提高學(xué)習性能。例如在新聞推薦中,若只有新聞類(lèi)型、用戶(hù) ID 兩類(lèi)特征,模型只能分別預測不同新聞類(lèi)型或不同用戶(hù) ID 對點(diǎn)擊率的影響。通過(guò)加入新聞類(lèi)型 x 用戶(hù) ID 組合特征,模型就可學(xué)習到一個(gè)用戶(hù)對不同新聞的偏好。再加入時(shí)間等特征進(jìn)行高階組合,模型就可對一個(gè)用戶(hù)在不同時(shí)間對不同新聞的偏好進(jìn)行預測,提升模型的個(gè)性化預測能力。
  特征組合作為提高模型效果的重要手段,以往大多需要構建龐大的數據科學(xué)家團隊,依靠他們的經(jīng)驗進(jìn)行探索和試錯,但繁瑣、低效的過(guò)程令科學(xué)家十分痛苦,且并非所有企業(yè)都能承受高昂的成本。
  第四范式從很早便開(kāi)始關(guān)注并深耕 AutoML 領(lǐng)域,從解決客戶(hù)業(yè)務(wù)核心增長(cháng)的角度出發(fā),構建了反欺詐、個(gè)性化推薦等業(yè)務(wù)場(chǎng)景下的 AutoML,并將其賦能給企業(yè)的普通開(kāi)發(fā)人員,取得了接近甚至超過(guò)數據科學(xué)家的業(yè)務(wù)效果。其中,AutoCross 發(fā)揮了重要的作用。
  痛點(diǎn)
  特征組合是對從數據中提取的海量原始特征進(jìn)行組合的過(guò)程,采用稀疏特征叉乘得出組合特征。在線(xiàn)性模型如 LR 只能刻畫(huà)特征間的線(xiàn)性關(guān)系、表達能力受限,而非線(xiàn)性模型如 GBDT 不能應用于大規模離散特征場(chǎng)景的情況下,特征組合能夠增加數據的非線(xiàn)性,從而提高性能。
  但枚舉所有組合特性,理論上很難做到,因為可能的組合特征數是指數級的,同時(shí)暴力添加特征可能會(huì )導致學(xué)習性能下降,因為它們可能是無(wú)關(guān)的或冗余的特征,從而增加學(xué)習難度。
  雖然深度神經(jīng)網(wǎng)絡(luò )可自動(dòng)構建高階特征 (generate high-order features),但面對大多數以表形式呈現的業(yè)務(wù)數據,最先進(jìn)的基于深度學(xué)習的方法無(wú)法有效涵蓋所有高階組合特征,且存在可解釋性差、計算成本高等弊端。該論文投稿時(shí),最先進(jìn)的深度學(xué)習方法是 xDeepFM [1]。這篇論文證明了 xDeepFM 可生成的特征是 AutoCross 可生成特征嵌入(embedding)的子集。
  AutoCross 的優(yōu)勢
  實(shí)現過(guò)程
  給定訓練數據
  
  ,并將其劃分為訓練集
  
  和驗證集
  
  。我們可以用一個(gè)特征集合 S 來(lái)表示
  
  ,并用學(xué)習算法 L 訓練一個(gè)模型
  
  。之后,用驗證集和同一個(gè)特征集合 S 計算一個(gè)需要被最大化的指標
  
  。特征組合搜索問(wèn)題可以定義為搜索一個(gè)最優(yōu)子特征集的問(wèn)題:
  
  其中 F 是
  
  的原始特征集合,
  
  包含 F 所有原始特征以及基于 F 可生成的所有組合特征。
  但是,假設原始特征數為 d,則上述問(wèn)題中所有可能解的數量是
  
  ,搜索空間巨大。為了提高搜索效率,AutoCross 將搜索最優(yōu)子特征集的問(wèn)題轉換為用貪婪策略逐步構建較優(yōu)解的問(wèn)題。首先,AutoCross 考慮一個(gè)樹(shù)結構的搜索空間
 ?。▓D 3),其中每一個(gè)節點(diǎn)表示一個(gè)子特征集。之后,用集束搜索策略在
  上搜索較優(yōu)解。通過(guò)這種方法,AutoCross 只需要訪(fǎng)問(wèn)
  
  個(gè)候選解,極大地提高了搜索效率。AutoCross 的整體算法如算法 1 所示。
  
  
  算法 1 中的一個(gè)關(guān)鍵步驟是評估候選特征集。最直接的方法是用每個(gè)候選特征集訓練模型并評估其性能,但是這種方法計算代價(jià)巨大,難以在搜索過(guò)程中反復執行。為了提高特征集評估的效率,AutoCross 提出了逐域對數幾率回歸(field-wise logistic regression)和連續批訓練梯度下降(successive mini-batch gradient descent)方法。
  為了提高特征集評估效率,逐域對數幾率回歸作出兩種近似。首先,用特征集在對數幾率回歸模型上的表現近似最終將使用這個(gè)特征集的模型上的表現;其次,在考慮
  中一個(gè)節點(diǎn)的子節點(diǎn)時(shí),不改變該節點(diǎn)包含特征對應的權重(weight),僅訓練子節點(diǎn)新增特征的權重。
  圖 4 說(shuō)明了如何將逐域對數幾率回歸部署在參數服務(wù)器架構上。逐域對數幾率回歸與參數服務(wù)器的結合可以提高特征集評估的存儲效率、傳輸效率和計算效率。在逐域對數幾率回歸訓練結束后,AutoCross 計算訓練得模型的指標,并以此方法來(lái)評估每一個(gè)候選特征集。
  
  AutoCross 采用連續批訓練梯度下降方法進(jìn)一步提高特征集評估的效率。該方法借鑒 successive halving 算法 [2],認為每一個(gè)候選特征集是 multi-arm bandit 問(wèn)題中的一個(gè) arm,對一個(gè)特征集用一個(gè)數據塊進(jìn)行權重更新相當于拉了一次對應的 arm,其回報為該次訓練后的驗證集 AUC。
  具體算法見(jiàn)算法 2,算法 2 中唯一的參數是數據塊的數量 N。N 可以根據數據的大小和計算環(huán)境自適應地確定。在使用連續批訓練梯度下降時(shí),用戶(hù)不需要像使用傳統的 subsampling 方法一樣調整 mini-batch 的尺寸和采樣率。
  
  為了支持數值特征與離散特征的組合,AutoCross 在預處理時(shí)將數值特征離散化為離散特征。AutoCross 提出了多粒度離散化(multi-granularity discretization)方法,使得用戶(hù)不需要反復調整離散化的粒度。多粒度離散化思想簡(jiǎn)單:將每一個(gè)數值特征,根據不同粒度劃分為多個(gè)離散特征。然后采用逐域對數幾率回歸挑選出最優(yōu)的離散特征。多個(gè)劃分粒度既可以由用戶(hù)指定,也可以由 AutoCross 根據數據大小和計算環(huán)境來(lái)自適應地選擇,從而降低了用戶(hù)的使用難度。
  實(shí)驗結果
  該論文在十個(gè)數據集(五個(gè)公開(kāi)、五個(gè)實(shí)際業(yè)務(wù))上進(jìn)行了實(shí)驗。比較的方法包括:
  效果比較:如下表 3 所示,AC+LR 和 AC+W&D 在大部分數據集上的排名都在前兩位。這體現了 AutoCross 產(chǎn)生的特征不僅可以增強 LR 模型,也可以用于提高深度學(xué)習模型的性能,并且 AC+LR 和 AC+W&D 的效果都優(yōu)于 xDeepFM。如之前所說(shuō),xDeepFM 所生成的特征不能完全包含 AutoCross 生成的特征。這些結果體現出顯式生成高階組合特征的效果優(yōu)勢。
  
  高階特征的作用:見(jiàn)表 5 和圖 6。從中可以得出,高階組合特征可以有效提高模型性能。
  
  時(shí)間消耗:見(jiàn)表 6、圖 7(主要做展示用)。
  
  
  推斷延遲:見(jiàn)表 7。從中可以得出:AC+LR 的推斷速度比 AC+W&D、Deep、xDeepFM 快幾個(gè)數量級。這說(shuō)明 AutoCross 不僅可以提高模型表現,同時(shí)保證了很低的推斷延遲。
  
  參考文獻
  [1] J. Lian, X. Zhou, F. Zhang, Z. Chen, X. Xie, and G. Sun. 2018. xDeepFM: Com- bining Explicit and Implicit Feature Interactions for Recommender Systems. In International Conference on Knowledge Discovery & Data Mining.
  [2] K. Jamieson and A. Talwalkar. 2016. Non-stochastic best arm identification and hyperparameter optimization. In Artificial Intelligence and Statistics. 240–248.
  [3] O. Chapelle, E. Manavoglu, and R. Rosales. 2015. Simple and scalable response prediction for display advertising. ACM Transactions on Intelligent Systems and Technology (TIST) 5, 4 (2015), 61.

采集自動(dòng)組合格式,實(shí)現對管理員端不重復下載

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 116 次瀏覽 ? 2022-06-20 03:00 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合格式,實(shí)現對管理員端不重復下載
  采集自動(dòng)組合格式,實(shí)現對管理員端/服務(wù)端不重復下載。多種文件格式選擇,兼容ie9及以上版本。多種規格,可存儲電影,或原生字幕,兼容全平臺。支持組件化開(kāi)發(fā)。開(kāi)源地址:阿里云站點(diǎn)現階段,需要支持ie8/10/11+。支持的規格如下:7zip,bmi,internalspec,videocapacity,6esplit,bmispipe,sub-spec。注意ie11尚未支持ie9及以上。
  windows用戶(hù)如果喜歡原生字幕可以直接直接開(kāi)源megascript開(kāi)源字幕組開(kāi)源srt字幕
  開(kāi)源的東西,應該可以吧。貌似我們已經(jīng)用上了,據說(shuō)不錯。
  看上去已經(jīng)是歷史了,
  最新的chrome將支持,名為true-versionimport,見(jiàn)-version-import/此插件與edge瀏覽器配合的intel內核的html5視頻播放器??梢越鉀Q大部分視頻格式帶寬占用問(wèn)題。
  你有心去做啊,人家只想來(lái)分杯羹而已。
  其實(shí),你可以試試ffmpeg,ffmpeg--handle-temp-ms-name"microsoftwindowsmediatransfer"--version"0。180300"-input-case"video"-download-mode"blurry"就可以使用原生視頻格式了,不過(guò)貌似是需要安裝ffmpeg播放器和插件才能使用。
  ahr0cdovl3dlaxhpbi5xcs5jb20vci9ptr6tzqlmwtyvh0dywwrotvxry1q==(二維碼自動(dòng)識別) 查看全部

  采集自動(dòng)組合格式,實(shí)現對管理員端不重復下載
  采集自動(dòng)組合格式,實(shí)現對管理員端/服務(wù)端不重復下載。多種文件格式選擇,兼容ie9及以上版本。多種規格,可存儲電影,或原生字幕,兼容全平臺。支持組件化開(kāi)發(fā)。開(kāi)源地址:阿里云站點(diǎn)現階段,需要支持ie8/10/11+。支持的規格如下:7zip,bmi,internalspec,videocapacity,6esplit,bmispipe,sub-spec。注意ie11尚未支持ie9及以上。
  windows用戶(hù)如果喜歡原生字幕可以直接直接開(kāi)源megascript開(kāi)源字幕組開(kāi)源srt字幕
  開(kāi)源的東西,應該可以吧。貌似我們已經(jīng)用上了,據說(shuō)不錯。
  看上去已經(jīng)是歷史了,
  最新的chrome將支持,名為true-versionimport,見(jiàn)-version-import/此插件與edge瀏覽器配合的intel內核的html5視頻播放器??梢越鉀Q大部分視頻格式帶寬占用問(wèn)題。
  你有心去做啊,人家只想來(lái)分杯羹而已。
  其實(shí),你可以試試ffmpeg,ffmpeg--handle-temp-ms-name"microsoftwindowsmediatransfer"--version"0。180300"-input-case"video"-download-mode"blurry"就可以使用原生視頻格式了,不過(guò)貌似是需要安裝ffmpeg播放器和插件才能使用。
  ahr0cdovl3dlaxhpbi5xcs5jb20vci9ptr6tzqlmwtyvh0dywwrotvxry1q==(二維碼自動(dòng)識別)

重磅----東方財富研報自動(dòng)采集系統,附程序代碼

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 343 次瀏覽 ? 2022-06-13 12:00 ? 來(lái)自相關(guān)話(huà)題

  重磅----東方財富研報自動(dòng)采集系統,附程序代碼
  我們直接看數據,打開(kāi)東方財富研報界面。

  我們用東方財富個(gè)股研報為例子進(jìn)行講解,我們先獲取研報鏈接,這個(gè)很復雜,因為它沒(méi)有直接提供鏈接,研報鏈接需要組合出來(lái)。需要解析的數據,參考代碼。

  我們看程序運行的效果,因為這個(gè)獲取比較復雜,涉及東西很大。
  
  程序運行的圖形界面

  比如我們點(diǎn)擊個(gè)股研報采集,輸入要采集文件的多少,比如30
  
  我們看采集的效果,不會(huì )重復采集。

  我們看保存下來(lái)的文件,自動(dòng)分類(lèi)。
  
  
  我們隨便打開(kāi)一個(gè)文件。

  程序代碼
  import pandas as pdfrom bs4 import BeautifulSoupfrom xml import etreeimport jsonimport jsonpathfrom fpdf import FPDFimport requestsimport osimport timeimport PySimpleGUI as sgimport tkinter as tkfrom openpyxl import load_workbookimport matplotlib.pyplot as pltroot=tk.Tk()root.wm_title('東方財富研報采集')root.geometry('600x500')menmenu=tk.Menu(root)report_down=tk.Menu(menmenu)menmenu.add_cascade(label='東方財富研報自動(dòng)采集',menu=report_down)#東方財富研報個(gè)股采集#檢測主文件夾,在桌面main_name='東方財富'main_list=os.listdir(r'C:\Users\Administrator\Desktop')if main_name in main_list: print('{}文件夾已經(jīng)存在'.format(main_name)) #建立文件夾else: os.makedirs(r'C:\Users\Administrator\Desktop\{}'.format(main_name))#采集不分類(lèi)個(gè)股的研報def stock_now_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1335389', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'0', 'orgCode':'', 'code':'*', 'rcode':'', '_':'1653745465030' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='個(gè)股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#行業(yè)研報def industry_report_down_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1451407', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'1', 'orgCode':'', 'rcode':'', '_':'1654947298302' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='行業(yè)研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#新股研報def new_stock_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/newStockList?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable3277848', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'2', 'fields':'', 'qType':'4', 'p':'2', 'pageNum':'2', 'pageNumber':'2', '_':'1654947808283' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='新股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#策略報告def cl_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable6714376', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'2', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654948156323' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='策略研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#宏觀(guān)研報def hg_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable7655083', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'3', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654947750723' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='宏觀(guān)經(jīng)濟研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#券商晨報def jscb_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable2280662', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'4', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654949598388' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='券商晨報研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() #輸出文件 pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))report_down.add_command(label='東方財富個(gè)股研報采集',command=stock_now_report_pdf)report_down.add_command(label='東方財富行業(yè)研報采集',command=industry_report_down_pdf)report_down.add_command(label='東方財富新股研報采集',command=new_stock_report_pdf)report_down.add_command(label='東方財富策略研報采集',command=cl_report_pdf_down)report_down.add_command(label='東方財富宏觀(guān)研報采集',command=hg_report_pdf_down)report_down.add_command(label='東方財富券商晨報采集',command=jscb_report_pdf_down)root['menu']=menmenuroot.mainloop()<br /> 查看全部

  重磅----東方財富研報自動(dòng)采集系統,附程序代碼
  我們直接看數據,打開(kāi)東方財富研報界面。

  我們用東方財富個(gè)股研報為例子進(jìn)行講解,我們先獲取研報鏈接,這個(gè)很復雜,因為它沒(méi)有直接提供鏈接,研報鏈接需要組合出來(lái)。需要解析的數據,參考代碼。

  我們看程序運行的效果,因為這個(gè)獲取比較復雜,涉及東西很大。
  
  程序運行的圖形界面

  比如我們點(diǎn)擊個(gè)股研報采集,輸入要采集文件的多少,比如30
  
  我們看采集的效果,不會(huì )重復采集。

  我們看保存下來(lái)的文件,自動(dòng)分類(lèi)。
  
  
  我們隨便打開(kāi)一個(gè)文件。

  程序代碼
  import pandas as pdfrom bs4 import BeautifulSoupfrom xml import etreeimport jsonimport jsonpathfrom fpdf import FPDFimport requestsimport osimport timeimport PySimpleGUI as sgimport tkinter as tkfrom openpyxl import load_workbookimport matplotlib.pyplot as pltroot=tk.Tk()root.wm_title('東方財富研報采集')root.geometry('600x500')menmenu=tk.Menu(root)report_down=tk.Menu(menmenu)menmenu.add_cascade(label='東方財富研報自動(dòng)采集',menu=report_down)#東方財富研報個(gè)股采集#檢測主文件夾,在桌面main_name='東方財富'main_list=os.listdir(r'C:\Users\Administrator\Desktop')if main_name in main_list: print('{}文件夾已經(jīng)存在'.format(main_name)) #建立文件夾else: os.makedirs(r'C:\Users\Administrator\Desktop\{}'.format(main_name))#采集不分類(lèi)個(gè)股的研報def stock_now_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1335389', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'0', 'orgCode':'', 'code':'*', 'rcode':'', '_':'1653745465030' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='個(gè)股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#行業(yè)研報def industry_report_down_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/list?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable1451407', 'industryCode':'*', 'pageSize':page, 'industry':'*', 'rating':'*', 'ratingChange':'*', 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'1', 'orgCode':'', 'rcode':'', '_':'1654947298302' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='行業(yè)研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#新股研報def new_stock_report_pdf(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/newStockList?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable3277848', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'2', 'fields':'', 'qType':'4', 'p':'2', 'pageNum':'2', 'pageNumber':'2', '_':'1654947808283' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='新股研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,stockname,infoCode,encodeUrl in zip(df['title'],df['stockName'],df['infoCode'],df['encodeUrl']): try: pdf_name=stockname+title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?{}.pdf'.format(infoCode,encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#策略報告def cl_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable6714376', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'2', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654948156323' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='策略研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#宏觀(guān)研報def hg_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable7655083', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'3', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654947750723' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='宏觀(guān)經(jīng)濟研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))#券商晨報def jscb_report_pdf_down(): page=sg.popup_get_text('輸入要下載數據大小比如30') url='https://reportapi.eastmoney.com/report/jg?' #自動(dòng)填充時(shí)間,獲取最新的研報 locatime=time.localtime() year=locatime.tm_year mo=locatime.tm_mon daily=locatime.tm_mday h=locatime.tm_hour start_date='{}-{}-{}'.format(year,mo,daily) end_date='{}-{}-{}'.format(year,mo,daily) params={ 'cb':'datatable2280662', 'pageSize':page, 'beginTime':start_date, 'endTime':end_date, 'pageNo':'1', 'fields':'', 'qType':'4', 'orgCode':'', 'author':'', 'p':'1', 'pageNum':'1', 'pageNumber':'1', '_':'1654949598388' } res=requests.get(url=url,params=params) res_text=res.text[17:len(res.text)-1] json_text=json.loads(res_text) df_text=pd.DataFrame(json_text['data']) df=df_text wjj_name='券商晨報研報' wjj_list=os.listdir(r'C:\Users\Administrator\Desktop\{}'.format(main_name)) if wjj_name in wjj_list: print('{}文件夾已經(jīng)存在'.format(wjj_name)) #建立文件夾 else: os.makedirs(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) for title,encodeUrl in zip(df['title'],df['encodeUrl']): try: pdf_name=title+'.pdf' encodeurl=encodeUrl.split('=')[0] pdf_url='https://pdf.dfcfw.com/pdf/H3_{}_1.pdf?.pdf'.format(encodeurl) #自動(dòng)建立文件夾,先檢測文件夾是否存在 pdf_request=requests.get(pdf_url) #建立pdf格式文檔,因為有些電腦不需要 #檢測文件是不是已經(jīng)存在 path_name=os.listdir(r'C:\Users\Administrator\Desktop\{}\{}'.format(main_name,wjj_name)) if pdf_name in path_name: print('{}文件已經(jīng)存在,不采集'.format(pdf_name)) else: pdf=FPDF() #輸出文件 pdf.output(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name)) #讀取pdf with open(r'C:\Users\Administrator\Desktop\{}\{}\{}'.format(main_name,wjj_name,pdf_name),'wb') as f: f.write(pdf_request.content) print(pdf_name,'下載完成') except: print('采集失敗{}'.format(pdf_name))report_down.add_command(label='東方財富個(gè)股研報采集',command=stock_now_report_pdf)report_down.add_command(label='東方財富行業(yè)研報采集',command=industry_report_down_pdf)report_down.add_command(label='東方財富新股研報采集',command=new_stock_report_pdf)report_down.add_command(label='東方財富策略研報采集',command=cl_report_pdf_down)report_down.add_command(label='東方財富宏觀(guān)研報采集',command=hg_report_pdf_down)report_down.add_command(label='東方財富券商晨報采集',command=jscb_report_pdf_down)root['menu']=menmenuroot.mainloop()<br />

采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 89 次瀏覽 ? 2022-06-11 17:06 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層
  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層均為灰度圖層(黑白值為
  1),雙擊圖層菜單組合-設置值.灰度值可以使用:rgb(255,255,25
  5),cmyk(0-255,0,
  0)等來(lái)設置。圖層信息中可以訪(fǎng)問(wèn)圖層所有所屬的圖層.圖層名.圖層的顯示縮略圖(設置好顯示縮略圖后,可以先點(diǎn)擊該圖層,
  gh2要設置圖層前先用裁剪畫(huà)線(xiàn)
  你好,globalautodetect在外層使用到globalautodetect,一般只用在最外層,前提是你要先判斷一下這個(gè)外層是不是有效的,如果不是有效的globalautodetect就不會(huì )被內部識別,這時(shí)候才有權外部自動(dòng)去檢測這個(gè)usagement,那么這個(gè)內層有效不有效的區別是什么呢?是不是看它占有的內存占有的量,如果是少的話(huà),那么就沒(méi)有區別,如果占用的是很多的話(huà),那么就要在內層上加一層vroposeoutput給外層,這樣才會(huì )進(jìn)一步精確。
  內層image為24x36,格式為(24dp)~48dp之間都行,每個(gè)物體都是用rayfill的。為什么呢??jì)葘觟mage是24dp,外層texture數量為(48dp)~96dp。stage1內層只有g(shù)rid,沒(méi)有textures,如果為了要實(shí)現地形可以設置stage1grid中的texturesize為300dp。
  為什么外層和內層不要放在一起,因為外層stage不全,內層需要包裹住外層,這樣內層可以實(shí)現使用globalautodetect去實(shí)現texture的局部識別。 查看全部

  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層
  采集自動(dòng)組合功能-gh5設置項目以外的圖層圖層均為灰度圖層(黑白值為
  1),雙擊圖層菜單組合-設置值.灰度值可以使用:rgb(255,255,25
  5),cmyk(0-255,0,
  0)等來(lái)設置。圖層信息中可以訪(fǎng)問(wèn)圖層所有所屬的圖層.圖層名.圖層的顯示縮略圖(設置好顯示縮略圖后,可以先點(diǎn)擊該圖層,
  gh2要設置圖層前先用裁剪畫(huà)線(xiàn)
  你好,globalautodetect在外層使用到globalautodetect,一般只用在最外層,前提是你要先判斷一下這個(gè)外層是不是有效的,如果不是有效的globalautodetect就不會(huì )被內部識別,這時(shí)候才有權外部自動(dòng)去檢測這個(gè)usagement,那么這個(gè)內層有效不有效的區別是什么呢?是不是看它占有的內存占有的量,如果是少的話(huà),那么就沒(méi)有區別,如果占用的是很多的話(huà),那么就要在內層上加一層vroposeoutput給外層,這樣才會(huì )進(jìn)一步精確。
  內層image為24x36,格式為(24dp)~48dp之間都行,每個(gè)物體都是用rayfill的。為什么呢??jì)葘觟mage是24dp,外層texture數量為(48dp)~96dp。stage1內層只有g(shù)rid,沒(méi)有textures,如果為了要實(shí)現地形可以設置stage1grid中的texturesize為300dp。
  為什么外層和內層不要放在一起,因為外層stage不全,內層需要包裹住外層,這樣內層可以實(shí)現使用globalautodetect去實(shí)現texture的局部識別。

極速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,讓企業(yè)獲客走出困境

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 72 次瀏覽 ? 2022-06-04 11:44 ? 來(lái)自相關(guān)話(huà)題

  極速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,讓企業(yè)獲客走出困境
  在將產(chǎn)品或服務(wù)賣(mài)給客戶(hù)之前,第一步是要挖掘銷(xiāo)售線(xiàn)索,銷(xiāo)售線(xiàn)索挖掘的數量、質(zhì)量、效率直接影響后期的銷(xiāo)售額。
  創(chuàng )建一條銷(xiāo)售線(xiàn)索廣告需要手動(dòng)匹配視頻、文案、定向包、落地頁(yè),設置出價(jià)策略,配置監測鏈接,極大的消耗優(yōu)化師的精力,如果能自動(dòng)快速的創(chuàng )建銷(xiāo)售線(xiàn)索廣告將有助于優(yōu)化師快速起量、放量。
  極速創(chuàng )建企業(yè)獲客新助力
  AdsDesk新增的快手平臺銷(xiāo)售線(xiàn)索收集廣告支持極速創(chuàng )建,提高線(xiàn)索獲取的效率。
  
  上下滑大屏廣告、激勵視頻廣告、開(kāi)屏廣告
  AdsDesk的極速創(chuàng )建將廣告投放配置按照業(yè)務(wù)需要分為三個(gè)區域:基礎投放設置、叉乘要素配置、基礎規則及名稱(chēng)配置,三個(gè)區域分別承載了投放策略配置、創(chuàng )意組合、名稱(chēng)配置的功能,各項需要統一管理,集中調配,例如在叉乘要素配置中聚合了定向包、創(chuàng )意素材組、創(chuàng )意文案三個(gè)選項,通過(guò)叉乘的組合方式,可一次性創(chuàng )建200條廣告,實(shí)現了廣告創(chuàng )意集中選擇,自動(dòng)匹配,快速創(chuàng )建,數據即時(shí)顯示,修改快捷,廣告統一預覽。
  
  如果說(shuō)素材是展示櫥窗,那落地頁(yè)就相當于門(mén)店導購,主要承載了傳遞產(chǎn)品價(jià)值、促進(jìn)用戶(hù)信息留存的功能,高質(zhì)量數據有助于幫助銷(xiāo)售人員做后續的跟進(jìn)和轉化,通過(guò)單賬號內落地頁(yè)按廣告計劃或廣告組的分配,靈活組合,大量創(chuàng )建測試計劃,自動(dòng)生成單一變量計劃,觸動(dòng)多樣化人群,優(yōu)選投放效果最佳組合,提高線(xiàn)索收集效率。
  
  快手-落地頁(yè)管理支持管理自有落地頁(yè)和第三方監測,在投放對應自有落地頁(yè)時(shí),自動(dòng)配置對應監測鏈接,搭配落地頁(yè)通配符,結合開(kāi)放的投放策略和叉乘模式的創(chuàng )意組合,實(shí)現數據全鏈路留存、追蹤,持續優(yōu)化投放效果,提高線(xiàn)索質(zhì)量。
  
  場(chǎng)景:極速創(chuàng )建解放生產(chǎn)力,廣告組合快速測試
  某車(chē)企公司,希望在快手平臺投放線(xiàn)索廣告,以此獲取更多用戶(hù)數量并形成轉化,幫助公司提升收益。在廣告測試階段,車(chē)企優(yōu)化師首先需要手動(dòng)創(chuàng )建廣告計劃,他們發(fā)現廣告創(chuàng )建中需要逐一進(jìn)行定向、出價(jià)、投放策略等多個(gè)配置,搭建一條計劃就需要耗費大量的時(shí)間和精力。除了創(chuàng )建廣告,為了精準觸達目標用戶(hù),還需要搭建多個(gè)廣告落地頁(yè)進(jìn)行測試,在人力有限的情況下,車(chē)企公司優(yōu)化師的效率根本無(wú)法滿(mǎn)足每日廣告投放需求,獲取的銷(xiāo)售線(xiàn)索數量和質(zhì)量都差強人意。
  車(chē)企優(yōu)化師借助AdsDesk在快手平臺極速創(chuàng )建銷(xiāo)售線(xiàn)索廣告后,系統對不同的廣告要素進(jìn)行自動(dòng)化匹配和叉乘,實(shí)現快速批量創(chuàng )建和配置完成多個(gè)廣告,省去了重復而繁瑣的手動(dòng)工作,大大提升廣告創(chuàng )建效率。在廣告落地頁(yè)方面,優(yōu)化師可通過(guò)AdsDesk平臺自動(dòng)配置每個(gè)落地頁(yè)監測鏈接,結合開(kāi)放的投放策略和叉乘模式與廣告創(chuàng )意進(jìn)行自由組合,能夠在廣告投放中快速測試出優(yōu)質(zhì)的廣告和落地頁(yè)版本。車(chē)企公司優(yōu)化師在使用AdsDesk后發(fā)現,自己從廣告創(chuàng )建工作中釋放后,有更多時(shí)間優(yōu)化廣告和落地頁(yè),持續提升廣告投放效果,獲取的銷(xiāo)售線(xiàn)索質(zhì)量有了質(zhì)的飛躍,企業(yè)收益也得到了明顯提升。
  一款產(chǎn)品的推廣往往伴隨著(zhù)市場(chǎng)活動(dòng)和公司戰略,在某個(gè)特定時(shí)間節點(diǎn)需要快速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,優(yōu)化師可以利用AdsDesk快手端的極速創(chuàng )建功能,批量創(chuàng )建廣告快速投放,搶占先機,后續根據落地頁(yè)的監測鏈接調整創(chuàng )意組合,讓廣告起量快人一步。
  
   查看全部

  極速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,讓企業(yè)獲客走出困境
  在將產(chǎn)品或服務(wù)賣(mài)給客戶(hù)之前,第一步是要挖掘銷(xiāo)售線(xiàn)索,銷(xiāo)售線(xiàn)索挖掘的數量、質(zhì)量、效率直接影響后期的銷(xiāo)售額。
  創(chuàng )建一條銷(xiāo)售線(xiàn)索廣告需要手動(dòng)匹配視頻、文案、定向包、落地頁(yè),設置出價(jià)策略,配置監測鏈接,極大的消耗優(yōu)化師的精力,如果能自動(dòng)快速的創(chuàng )建銷(xiāo)售線(xiàn)索廣告將有助于優(yōu)化師快速起量、放量。
  極速創(chuàng )建企業(yè)獲客新助力
  AdsDesk新增的快手平臺銷(xiāo)售線(xiàn)索收集廣告支持極速創(chuàng )建,提高線(xiàn)索獲取的效率。
  
  上下滑大屏廣告、激勵視頻廣告、開(kāi)屏廣告
  AdsDesk的極速創(chuàng )建將廣告投放配置按照業(yè)務(wù)需要分為三個(gè)區域:基礎投放設置、叉乘要素配置、基礎規則及名稱(chēng)配置,三個(gè)區域分別承載了投放策略配置、創(chuàng )意組合、名稱(chēng)配置的功能,各項需要統一管理,集中調配,例如在叉乘要素配置中聚合了定向包、創(chuàng )意素材組、創(chuàng )意文案三個(gè)選項,通過(guò)叉乘的組合方式,可一次性創(chuàng )建200條廣告,實(shí)現了廣告創(chuàng )意集中選擇,自動(dòng)匹配,快速創(chuàng )建,數據即時(shí)顯示,修改快捷,廣告統一預覽。
  
  如果說(shuō)素材是展示櫥窗,那落地頁(yè)就相當于門(mén)店導購,主要承載了傳遞產(chǎn)品價(jià)值、促進(jìn)用戶(hù)信息留存的功能,高質(zhì)量數據有助于幫助銷(xiāo)售人員做后續的跟進(jìn)和轉化,通過(guò)單賬號內落地頁(yè)按廣告計劃或廣告組的分配,靈活組合,大量創(chuàng )建測試計劃,自動(dòng)生成單一變量計劃,觸動(dòng)多樣化人群,優(yōu)選投放效果最佳組合,提高線(xiàn)索收集效率。
  
  快手-落地頁(yè)管理支持管理自有落地頁(yè)和第三方監測,在投放對應自有落地頁(yè)時(shí),自動(dòng)配置對應監測鏈接,搭配落地頁(yè)通配符,結合開(kāi)放的投放策略和叉乘模式的創(chuàng )意組合,實(shí)現數據全鏈路留存、追蹤,持續優(yōu)化投放效果,提高線(xiàn)索質(zhì)量。
  
  場(chǎng)景:極速創(chuàng )建解放生產(chǎn)力,廣告組合快速測試
  某車(chē)企公司,希望在快手平臺投放線(xiàn)索廣告,以此獲取更多用戶(hù)數量并形成轉化,幫助公司提升收益。在廣告測試階段,車(chē)企優(yōu)化師首先需要手動(dòng)創(chuàng )建廣告計劃,他們發(fā)現廣告創(chuàng )建中需要逐一進(jìn)行定向、出價(jià)、投放策略等多個(gè)配置,搭建一條計劃就需要耗費大量的時(shí)間和精力。除了創(chuàng )建廣告,為了精準觸達目標用戶(hù),還需要搭建多個(gè)廣告落地頁(yè)進(jìn)行測試,在人力有限的情況下,車(chē)企公司優(yōu)化師的效率根本無(wú)法滿(mǎn)足每日廣告投放需求,獲取的銷(xiāo)售線(xiàn)索數量和質(zhì)量都差強人意。
  車(chē)企優(yōu)化師借助AdsDesk在快手平臺極速創(chuàng )建銷(xiāo)售線(xiàn)索廣告后,系統對不同的廣告要素進(jìn)行自動(dòng)化匹配和叉乘,實(shí)現快速批量創(chuàng )建和配置完成多個(gè)廣告,省去了重復而繁瑣的手動(dòng)工作,大大提升廣告創(chuàng )建效率。在廣告落地頁(yè)方面,優(yōu)化師可通過(guò)AdsDesk平臺自動(dòng)配置每個(gè)落地頁(yè)監測鏈接,結合開(kāi)放的投放策略和叉乘模式與廣告創(chuàng )意進(jìn)行自由組合,能夠在廣告投放中快速測試出優(yōu)質(zhì)的廣告和落地頁(yè)版本。車(chē)企公司優(yōu)化師在使用AdsDesk后發(fā)現,自己從廣告創(chuàng )建工作中釋放后,有更多時(shí)間優(yōu)化廣告和落地頁(yè),持續提升廣告投放效果,獲取的銷(xiāo)售線(xiàn)索質(zhì)量有了質(zhì)的飛躍,企業(yè)收益也得到了明顯提升。
  一款產(chǎn)品的推廣往往伴隨著(zhù)市場(chǎng)活動(dòng)和公司戰略,在某個(gè)特定時(shí)間節點(diǎn)需要快速創(chuàng )建銷(xiāo)售線(xiàn)索收集廣告,優(yōu)化師可以利用AdsDesk快手端的極速創(chuàng )建功能,批量創(chuàng )建廣告快速投放,搶占先機,后續根據落地頁(yè)的監測鏈接調整創(chuàng )意組合,讓廣告起量快人一步。
  
  

采集自動(dòng)組合的種子地址提取cookie一般就是設定

采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 126 次瀏覽 ? 2022-05-30 10:12 ? 來(lái)自相關(guān)話(huà)題

  采集自動(dòng)組合的種子地址提取cookie一般就是設定
  采集自動(dòng)組合的種子地址提取cookie一般就是設定自動(dòng)組合好種子地址這一串參數,
  你可以在組合種子設置中對cookie進(jìn)行設置我之前用過(guò)這個(gè)工具,優(yōu)點(diǎn)是支持多種地址,
  我看了看論壇上面的帖子,感覺(jué)你是沒(méi)有注意到這個(gè)東西,自動(dòng)復制地址過(guò)去獲取的東西可能和你設置的過(guò)去的不一樣,一個(gè)是你設置的是怎么生成那個(gè)種子,另一個(gè)是網(wǎng)絡(luò )請求的src是怎么返回的,百度搜索手機秒傳云服務(wù),有答案。
  statichostmixedhostregistryname都可以了解一下。
  我試了各種方法,都設置了cookie,但是都沒(méi)能取到?;蛘哒f(shuō)api本身不知道對get請求的設置就搞錯了結果。目前其他方式都嘗試過(guò),都嘗試的不好用。最后我自己改寫(xiě)了這個(gè)程序,通過(guò)重寫(xiě)cookie實(shí)現的api。過(guò)去的是沒(méi)有獲取到,現在是可以了!復制獲取的結果就可以再post的請求中顯示出來(lái)了。修改前復制獲取的結果和修改后。
  可以訪(fǎng)問(wèn)我的源碼github-hn-f39/piwebhttp:chooseyourstyleofspringframework,whichisbecomingandrewnguyen'sgoforthenextdecade。thisframeworkisalargescaleapplicationthatrunsonreact,vue,emberandegg。
  differentlyitrequiresdeeplearningengineandthesafetyandportabilityofwebcomponents。 查看全部

  采集自動(dòng)組合的種子地址提取cookie一般就是設定
  采集自動(dòng)組合的種子地址提取cookie一般就是設定自動(dòng)組合好種子地址這一串參數,
  你可以在組合種子設置中對cookie進(jìn)行設置我之前用過(guò)這個(gè)工具,優(yōu)點(diǎn)是支持多種地址,
  我看了看論壇上面的帖子,感覺(jué)你是沒(méi)有注意到這個(gè)東西,自動(dòng)復制地址過(guò)去獲取的東西可能和你設置的過(guò)去的不一樣,一個(gè)是你設置的是怎么生成那個(gè)種子,另一個(gè)是網(wǎng)絡(luò )請求的src是怎么返回的,百度搜索手機秒傳云服務(wù),有答案。
  statichostmixedhostregistryname都可以了解一下。
  我試了各種方法,都設置了cookie,但是都沒(méi)能取到?;蛘哒f(shuō)api本身不知道對get請求的設置就搞錯了結果。目前其他方式都嘗試過(guò),都嘗試的不好用。最后我自己改寫(xiě)了這個(gè)程序,通過(guò)重寫(xiě)cookie實(shí)現的api。過(guò)去的是沒(méi)有獲取到,現在是可以了!復制獲取的結果就可以再post的請求中顯示出來(lái)了。修改前復制獲取的結果和修改后。
  可以訪(fǎng)問(wèn)我的源碼github-hn-f39/piwebhttp:chooseyourstyleofspringframework,whichisbecomingandrewnguyen'sgoforthenextdecade。thisframeworkisalargescaleapplicationthatrunsonreact,vue,emberandegg。
  differentlyitrequiresdeeplearningengineandthesafetyandportabilityofwebcomponents。

官方客服QQ群

微信人工客服

QQ人工客服


線(xiàn)

亚洲国产精品无码久久大片,亚洲AV无码乱码麻豆精品国产,亚洲品质自拍网站,少妇伦子伦精品无码STYLES,国产精久久久久久久