
實(shí)時(shí)文章采集
優(yōu)采云使用實(shí)時(shí)文章采集的注意事項有哪些?
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 90 次瀏覽 ? 2023-01-14 03:26
實(shí)時(shí)文章采集是一種能夠在網(wǎng)上快速搜集新聞、論壇信息、圖片、視頻等海量數據的技術(shù)。它能夠快速定位和獲取有用的信息,從而為企業(yè)帶來(lái)大量的內容供應。當然,使用實(shí)時(shí)文章采集也有一些注意事項,如遵守版權法、遵守相關(guān)法律法規等。
優(yōu)采云是一款功能強大的實(shí)時(shí)文章采集軟件,具備SEO優(yōu)化功能。該軟件擁有強大的數據庫,能夠根據關(guān)鍵字快速搜索出相關(guān)信息;同時(shí)具備圖像識別功能,可以根據圖片找到相關(guān)內容;還具備中文分詞功能,可以對中文內容進(jìn)行分詞處理。此外,還可以將采集內容進(jìn)行SEO優(yōu)化處理,從而使內容在搜索引擎中更易被發(fā)現。
使用優(yōu)采云這一工具,企業(yè)不僅可以快速獲取大量的信息內容,而且還能將內容進(jìn)行SEO優(yōu)化處理,從而使內容在各大平臺上得到快速展示。同時(shí),由于該工具具有圖片識別功能和中文分詞功能,所以能夠將企業(yè)所需要的信息快速準確地找出來(lái)。
總之,隨著(zhù)互聯(lián)網(wǎng)的發(fā)展,優(yōu)采云這一實(shí)時(shí)文章采集工具已成為企業(yè)高效利用信息資源的不可或缺的部分。如果你想要嘗試一下優(yōu)采云這一工具的功能,你可以去它的官方網(wǎng)站www.hqbet6457.com上看看。 查看全部
實(shí)時(shí)文章采集,現在已經(jīng)成為了企業(yè)文章?tīng)I銷(xiāo)的必備技術(shù)。近幾年來(lái),隨著(zhù)互聯(lián)網(wǎng)技術(shù)的發(fā)展,實(shí)時(shí)文章采集技術(shù)也取得了很大的進(jìn)步,為企業(yè)文章?tīng)I銷(xiāo)帶來(lái)了很多便利。

實(shí)時(shí)文章采集是一種能夠在網(wǎng)上快速搜集新聞、論壇信息、圖片、視頻等海量數據的技術(shù)。它能夠快速定位和獲取有用的信息,從而為企業(yè)帶來(lái)大量的內容供應。當然,使用實(shí)時(shí)文章采集也有一些注意事項,如遵守版權法、遵守相關(guān)法律法規等。

優(yōu)采云是一款功能強大的實(shí)時(shí)文章采集軟件,具備SEO優(yōu)化功能。該軟件擁有強大的數據庫,能夠根據關(guān)鍵字快速搜索出相關(guān)信息;同時(shí)具備圖像識別功能,可以根據圖片找到相關(guān)內容;還具備中文分詞功能,可以對中文內容進(jìn)行分詞處理。此外,還可以將采集內容進(jìn)行SEO優(yōu)化處理,從而使內容在搜索引擎中更易被發(fā)現。

使用優(yōu)采云這一工具,企業(yè)不僅可以快速獲取大量的信息內容,而且還能將內容進(jìn)行SEO優(yōu)化處理,從而使內容在各大平臺上得到快速展示。同時(shí),由于該工具具有圖片識別功能和中文分詞功能,所以能夠將企業(yè)所需要的信息快速準確地找出來(lái)。
總之,隨著(zhù)互聯(lián)網(wǎng)的發(fā)展,優(yōu)采云這一實(shí)時(shí)文章采集工具已成為企業(yè)高效利用信息資源的不可或缺的部分。如果你想要嘗試一下優(yōu)采云這一工具的功能,你可以去它的官方網(wǎng)站www.hqbet6457.com上看看。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具需要做
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 90 次瀏覽 ? 2023-01-12 11:21
優(yōu)采云是一款面向新媒體從業(yè)人員、企業(yè)用戶(hù)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速、有效地進(jìn)行實(shí)時(shí)文章采集。該軟件提供了強大的SEO優(yōu)化功能,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配,并及時(shí)推送最新內容。此外,該軟件擁有強大的數據分析功能,能夠根據用戶(hù)要求進(jìn)行精準分析,幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。
此外,優(yōu)采云還具備眾多的特性:1、該軟件具有超強的采集能力,可以根據用戶(hù)要求快速定向采集新聞信息;2、該軟件擁有強大的SEO優(yōu)化能力,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配;3、該軟件擁有強大的數據分析功能,能夠幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具可以幫助用戶(hù)快速實(shí)現實(shí)時(shí)監測和內容采集。該軟件可以根據用戶(hù)關(guān)鍵字要求快速定向采集廣泛的信息來(lái)源(包含微博、微信、博客、門(mén)戶(hù)等等),并提供SEO優(yōu)化和數據分析功能來(lái)幫助用戶(hù)判斷信息真實(shí)性并準確判斷市場(chǎng)脈動(dòng)。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具所需要做的是注冊?xún)?yōu)采云官網(wǎng)www.hqbet6457.com上的帳號并進(jìn)行相關(guān)賬號綁定后即可使用。 查看全部
實(shí)時(shí)文章采集是新媒體傳播過(guò)程中一項必不可少的工作,它能夠有效收集到大量的信息,為企業(yè)提供有力的數據支撐。實(shí)時(shí)文章采集是一項耗時(shí)費力的工作,因此如何快速、有效地進(jìn)行實(shí)時(shí)文章采集成為了企業(yè)和新媒體從業(yè)者們關(guān)注的焦點(diǎn)。

優(yōu)采云是一款面向新媒體從業(yè)人員、企業(yè)用戶(hù)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速、有效地進(jìn)行實(shí)時(shí)文章采集。該軟件提供了強大的SEO優(yōu)化功能,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配,并及時(shí)推送最新內容。此外,該軟件擁有強大的數據分析功能,能夠根據用戶(hù)要求進(jìn)行精準分析,幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。

此外,優(yōu)采云還具備眾多的特性:1、該軟件具有超強的采集能力,可以根據用戶(hù)要求快速定向采集新聞信息;2、該軟件擁有強大的SEO優(yōu)化能力,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配;3、該軟件擁有強大的數據分析功能,能夠幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。

使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具可以幫助用戶(hù)快速實(shí)現實(shí)時(shí)監測和內容采集。該軟件可以根據用戶(hù)關(guān)鍵字要求快速定向采集廣泛的信息來(lái)源(包含微博、微信、博客、門(mén)戶(hù)等等),并提供SEO優(yōu)化和數據分析功能來(lái)幫助用戶(hù)判斷信息真實(shí)性并準確判斷市場(chǎng)脈動(dòng)。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具所需要做的是注冊?xún)?yōu)采云官網(wǎng)www.hqbet6457.com上的帳號并進(jìn)行相關(guān)賬號綁定后即可使用。
優(yōu)采云幫助用戶(hù)快速準確地獲取真正有價(jià)值的信息
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 60 次瀏覽 ? 2023-01-12 08:15
優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,可以幫助用戶(hù)輕松獲取各大網(wǎng)站上最新、最全面的信息。該軟件支持多種采集方式,包括關(guān)鍵詞采集、RSS訂閱、API數據對接等,能夠快速準確地采集到各大網(wǎng)站上所需要的信息。此外,優(yōu)采云還可以幫助用戶(hù)對所采集到的內容進(jìn)行SEO優(yōu)化,使內容在搜索引擎中得到優(yōu)先展示。
隨著(zhù)互聯(lián)網(wǎng)時(shí)代的到來(lái),人們對信息的獲取和分享也變得愈加便利。但是由于海量信息中存在大量低質(zhì)量?jì)热?,因此如何快速準確地獲取真正有價(jià)值的信息成為一個(gè)問(wèn)題。而優(yōu)采云就是為此而生,它能夠幫助用戶(hù)快速準確地獲取真正有用的信息,并將其整理成多樣化形式(如新聞、博客、教程、圖片等)供用戶(hù)使用。同時(shí)還能夠幫助用戶(hù)對內容進(jìn)行SEO優(yōu)化,以便在搜索引擎中得到優(yōu)先展示。
總之,優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速準確地獲取真正有價(jià)值的信息并將其整理成多樣化形式供用戶(hù)使用。各位想要嘗試使用該軟件的人士可前往www.hqbet6457.com進(jìn)行下載。 查看全部
實(shí)時(shí)文章采集是一種在線(xiàn)服務(wù),可以幫助網(wǎng)站擁有者掌握最新的信息,從而增加網(wǎng)站的流量。它的主要目的是通過(guò)自動(dòng)化的方式來(lái)收集最新的、有價(jià)值的信息,并將這些信息整理成新聞、博客、教程、圖片等形式,以便用戶(hù)能夠快速獲取所需的內容。

優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,可以幫助用戶(hù)輕松獲取各大網(wǎng)站上最新、最全面的信息。該軟件支持多種采集方式,包括關(guān)鍵詞采集、RSS訂閱、API數據對接等,能夠快速準確地采集到各大網(wǎng)站上所需要的信息。此外,優(yōu)采云還可以幫助用戶(hù)對所采集到的內容進(jìn)行SEO優(yōu)化,使內容在搜索引擎中得到優(yōu)先展示。

隨著(zhù)互聯(lián)網(wǎng)時(shí)代的到來(lái),人們對信息的獲取和分享也變得愈加便利。但是由于海量信息中存在大量低質(zhì)量?jì)热?,因此如何快速準確地獲取真正有價(jià)值的信息成為一個(gè)問(wèn)題。而優(yōu)采云就是為此而生,它能夠幫助用戶(hù)快速準確地獲取真正有用的信息,并將其整理成多樣化形式(如新聞、博客、教程、圖片等)供用戶(hù)使用。同時(shí)還能夠幫助用戶(hù)對內容進(jìn)行SEO優(yōu)化,以便在搜索引擎中得到優(yōu)先展示。

總之,優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速準確地獲取真正有價(jià)值的信息并將其整理成多樣化形式供用戶(hù)使用。各位想要嘗試使用該軟件的人士可前往www.hqbet6457.com進(jìn)行下載。
實(shí)時(shí)文章采集:優(yōu)采云采集器幫你輕松掌控全網(wǎng)海量信息
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 96 次瀏覽 ? 2022-12-28 05:15
隨著(zhù)網(wǎng)絡(luò )的發(fā)展,日益多的人選擇將信息發(fā)布到網(wǎng)上,但隨之而來(lái)的是,信息的海量和復雜性。如何快速、準確地獲取這些信息,成為人們面臨的一大難題。優(yōu)采云采集器正是為此而生。
優(yōu)采云采集器是一款功能強大、易用的實(shí)時(shí)文章采集工具,可以幫助使用者快速、有效地獲取全網(wǎng)海量信息。它具備多樣化的文章采集方式,不僅可以對新聞、論壇、博客、媒體實(shí)時(shí)進(jìn)行內容監測,還可以根據特定關(guān)鍵詞進(jìn)行新聞監聽(tīng)、全網(wǎng)數據內容分析,并對整理出來(lái)的數據進(jìn)行歸類(lèi)存儲,使用者可以輕松找到所需要的內容。
此外,優(yōu)采云采集器還能夠根據用戶(hù)需要進(jìn)行信息整理和去重處理,大幅度減少用戶(hù)手動(dòng)去重文章的工作量。同時(shí),優(yōu)采云采集器還可以根據用戶(hù)要求對原始數據進(jìn)行處理,并支持一鍵生成語(yǔ)音版本新聞便于用戶(hù)節省時(shí)間進(jìn)行快速閱讀。
通過(guò)優(yōu)采云采集器,不僅可以有效節省時(shí)間、減少工作強度,而且也能夠有效地幫助使用者獲取準確有效的海量信息內容。相信使用優(yōu)采云采集器一定能夠帶來(lái)意想不到的好處。
“優(yōu)采云”是一家專(zhuān)業(yè)的信息服務(wù)公司。我們賦能眾多企業(yè)、機構、學(xué)校等各類(lèi)用戶(hù),幫助大家快速、有效地獲取全網(wǎng)海量信息內容。此前,我們已將“優(yōu)采云”專(zhuān)業(yè)的信息服務(wù)水平證明在國內各大行業(yè)領(lǐng)域中得到廣泛應用。如今,我們將成功引入“實(shí)時(shí)文章采集”服務(wù)——“優(yōu)采云”新版“實(shí)時(shí)文章采集”工具——“優(yōu)采云采集器”(www.hqbet6457.com),幫助使用者快速、準確地獲取全網(wǎng)海量數據和信息內容(包含但不限于新聞、資訊、社媒);還能夠帶來(lái)整理和去除含有違禁字符等有用的效果;還有根據用戶(hù)要求快速生成語(yǔ)音版本等多項便利性特性。
總之,“優(yōu)采云采集器”的出現將大大方便各行各業(yè)領(lǐng)域中對海量信息內容獲取之困,無(wú)論是想要快速相應市場(chǎng)上即時(shí)流行趨勢,還是想要在第一時(shí)間得到相應話(huà)題相關(guān)新聞,“優(yōu)釋云”都能帶來(lái)意想不到的便利性,節省大家搜尋信息所耗費的時(shí)間,節省大家整理去除冗余信息所耗費的人力,打造一個(gè)快速、準確、方便的信息服務(wù)生態(tài).
如何開(kāi)始使用呢?“優(yōu)銃云”正式上線(xiàn)!大家只需要在www.hqbet6457.com上注冊即可.“優(yōu)銃云”樂(lè )意為大家提供獨特考試性努力,節省大家搜尋/整理/去除/存儲/語(yǔ)音化海量信息所耗費的時(shí)間;帶來(lái)意想不到的便利性;節省人力;構建一個(gè)快速準確方便的信息服務(wù)生態(tài);“優(yōu)銃云”將一如既往地為大家提供最好的服務(wù)! 查看全部
實(shí)時(shí)文章采集:優(yōu)采云采集器幫你輕松掌控全網(wǎng)海量信息
隨著(zhù)網(wǎng)絡(luò )的發(fā)展,日益多的人選擇將信息發(fā)布到網(wǎng)上,但隨之而來(lái)的是,信息的海量和復雜性。如何快速、準確地獲取這些信息,成為人們面臨的一大難題。優(yōu)采云采集器正是為此而生。
優(yōu)采云采集器是一款功能強大、易用的實(shí)時(shí)文章采集工具,可以幫助使用者快速、有效地獲取全網(wǎng)海量信息。它具備多樣化的文章采集方式,不僅可以對新聞、論壇、博客、媒體實(shí)時(shí)進(jìn)行內容監測,還可以根據特定關(guān)鍵詞進(jìn)行新聞監聽(tīng)、全網(wǎng)數據內容分析,并對整理出來(lái)的數據進(jìn)行歸類(lèi)存儲,使用者可以輕松找到所需要的內容。

此外,優(yōu)采云采集器還能夠根據用戶(hù)需要進(jìn)行信息整理和去重處理,大幅度減少用戶(hù)手動(dòng)去重文章的工作量。同時(shí),優(yōu)采云采集器還可以根據用戶(hù)要求對原始數據進(jìn)行處理,并支持一鍵生成語(yǔ)音版本新聞便于用戶(hù)節省時(shí)間進(jìn)行快速閱讀。
通過(guò)優(yōu)采云采集器,不僅可以有效節省時(shí)間、減少工作強度,而且也能夠有效地幫助使用者獲取準確有效的海量信息內容。相信使用優(yōu)采云采集器一定能夠帶來(lái)意想不到的好處。

“優(yōu)采云”是一家專(zhuān)業(yè)的信息服務(wù)公司。我們賦能眾多企業(yè)、機構、學(xué)校等各類(lèi)用戶(hù),幫助大家快速、有效地獲取全網(wǎng)海量信息內容。此前,我們已將“優(yōu)采云”專(zhuān)業(yè)的信息服務(wù)水平證明在國內各大行業(yè)領(lǐng)域中得到廣泛應用。如今,我們將成功引入“實(shí)時(shí)文章采集”服務(wù)——“優(yōu)采云”新版“實(shí)時(shí)文章采集”工具——“優(yōu)采云采集器”(www.hqbet6457.com),幫助使用者快速、準確地獲取全網(wǎng)海量數據和信息內容(包含但不限于新聞、資訊、社媒);還能夠帶來(lái)整理和去除含有違禁字符等有用的效果;還有根據用戶(hù)要求快速生成語(yǔ)音版本等多項便利性特性。
總之,“優(yōu)采云采集器”的出現將大大方便各行各業(yè)領(lǐng)域中對海量信息內容獲取之困,無(wú)論是想要快速相應市場(chǎng)上即時(shí)流行趨勢,還是想要在第一時(shí)間得到相應話(huà)題相關(guān)新聞,“優(yōu)釋云”都能帶來(lái)意想不到的便利性,節省大家搜尋信息所耗費的時(shí)間,節省大家整理去除冗余信息所耗費的人力,打造一個(gè)快速、準確、方便的信息服務(wù)生態(tài).
如何開(kāi)始使用呢?“優(yōu)銃云”正式上線(xiàn)!大家只需要在www.hqbet6457.com上注冊即可.“優(yōu)銃云”樂(lè )意為大家提供獨特考試性努力,節省大家搜尋/整理/去除/存儲/語(yǔ)音化海量信息所耗費的時(shí)間;帶來(lái)意想不到的便利性;節省人力;構建一個(gè)快速準確方便的信息服務(wù)生態(tài);“優(yōu)銃云”將一如既往地為大家提供最好的服務(wù)!
解決方案:優(yōu)采云采集器可以有效解決信息與虛假信息的難題
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 103 次瀏覽 ? 2022-12-27 10:18
實(shí)時(shí)文章采集是當今網(wǎng)絡(luò )信息的重要方式之一。相比傳統的采集技術(shù),實(shí)時(shí)文章采集更加有效、快捷、準確。它能夠幫助用戶(hù)在網(wǎng)上獲取海量的新聞、文章、圖片和視頻信息,并進(jìn)行及時(shí)分享,這對企業(yè)和個(gè)人都很有幫助。
但是,實(shí)時(shí)文章采集也存在一些問(wèn)題。例如,由于大量信息需要同時(shí)收集,很多用戶(hù)使用的設備和軟件性能不足以應付巨大的數據量;另外,如何準確區分出真實(shí)有效的信息與虛假信息也是一個(gè)難題。
幸運的是,優(yōu)采云采集器可以有效解決上述問(wèn)題。它具有強大的數據核心加速引擎,可以快速地將海量數據分發(fā)給用戶(hù);此外,該工具還具備“內容安全”功能,能夠準確地區分真偽信息并對其進(jìn)行評估。此外,該工具還能根據用戶(hù)需要即時(shí)推送新聞資訊、圖片、文章等內容。
此外,優(yōu)采云采集器還具有兩大獨特功能。首先是“無(wú)障礙”功能:該工具可以在不同平臺上使用,而不用去考慮不同平臺之間的差異性問(wèn)題。其次是“大數據利用”功能——通過(guò)將海量數據歸類(lèi)、分割和去噪處理來(lái)使得信號保留盡可能多的有效信息。
總而言之,優(yōu)采云采集器是一個(gè)強大而高效的新一代實(shí)時(shí)文章采集工具。它不僅將帶來(lái)快速便捷的新聞體驗,而且能夠準確地獲取真正有用的信息內容。 查看全部
解決方案:優(yōu)采云采集器可以有效解決信息與虛假信息的難題
實(shí)時(shí)文章采集是當今網(wǎng)絡(luò )信息的重要方式之一。相比傳統的采集技術(shù),實(shí)時(shí)文章采集更加有效、快捷、準確。它能夠幫助用戶(hù)在網(wǎng)上獲取海量的新聞、文章、圖片和視頻信息,并進(jìn)行及時(shí)分享,這對企業(yè)和個(gè)人都很有幫助。

但是,實(shí)時(shí)文章采集也存在一些問(wèn)題。例如,由于大量信息需要同時(shí)收集,很多用戶(hù)使用的設備和軟件性能不足以應付巨大的數據量;另外,如何準確區分出真實(shí)有效的信息與虛假信息也是一個(gè)難題。
幸運的是,優(yōu)采云采集器可以有效解決上述問(wèn)題。它具有強大的數據核心加速引擎,可以快速地將海量數據分發(fā)給用戶(hù);此外,該工具還具備“內容安全”功能,能夠準確地區分真偽信息并對其進(jìn)行評估。此外,該工具還能根據用戶(hù)需要即時(shí)推送新聞資訊、圖片、文章等內容。

此外,優(yōu)采云采集器還具有兩大獨特功能。首先是“無(wú)障礙”功能:該工具可以在不同平臺上使用,而不用去考慮不同平臺之間的差異性問(wèn)題。其次是“大數據利用”功能——通過(guò)將海量數據歸類(lèi)、分割和去噪處理來(lái)使得信號保留盡可能多的有效信息。
總而言之,優(yōu)采云采集器是一個(gè)強大而高效的新一代實(shí)時(shí)文章采集工具。它不僅將帶來(lái)快速便捷的新聞體驗,而且能夠準確地獲取真正有用的信息內容。
匯總:如何知乎采集數據方法大全
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 117 次瀏覽 ? 2022-12-24 14:38
“內容為王”,站長(cháng)朋友們已經(jīng)非常認可這個(gè)觀(guān)點(diǎn)了。 那么一個(gè)網(wǎng)站如何創(chuàng )造更優(yōu)秀的內容呢? 這是網(wǎng)站管理員最大的問(wèn)題。 不是每個(gè)人都有這么好的文筆,寫(xiě)的像神一樣,每篇文章都能達到高質(zhì)量。 不是每個(gè)人都有那么多時(shí)間,每天花很多時(shí)間寫(xiě)文章和創(chuàng )作內容。 很多站長(cháng)選擇采集內容來(lái)充實(shí)自己的網(wǎng)站,但是胡亂采集一些文章,不僅不會(huì )增加網(wǎng)站的收錄和排名,反而會(huì )適得其反。
關(guān)于采集,如何找到優(yōu)質(zhì)的文章,首先要找一個(gè)優(yōu)質(zhì)的平臺進(jìn)行針對性的采集。 知乎是中文互聯(lián)網(wǎng)優(yōu)質(zhì)問(wèn)答社區,是創(chuàng )作者聚集的原創(chuàng )內容平臺。 生活和工作中遇到的很多問(wèn)題都可以在知乎上找到你想要的答案! 原因是因為知乎的回答比較權威靠譜。 知乎有幾個(gè)優(yōu)勢,使其成為吸引人們的重要渠道。 首先,知乎的權重非常高。 大家要知道,用戶(hù)在搜索相關(guān)信息和答案的時(shí)候,排在前幾位的一般都是知知乎文章或者知乎答案,可見(jiàn)知乎是一個(gè)深受人們喜愛(ài)的優(yōu)質(zhì)平臺。
說(shuō)了這么多優(yōu)點(diǎn),我們來(lái)說(shuō)說(shuō)如何采集知乎上的文章吧! 如果一一復制粘貼顯然不現實(shí),那么我們可以使用免費的知乎采集工具來(lái)完成繁瑣的采集工作。 首先我們新建一個(gè)采集任務(wù),比如知乎采集任務(wù),然后在采集數據中選擇搜狗知乎。 接下來(lái)選擇一個(gè)采集文章的文件夾,設置一個(gè)關(guān)鍵詞采集多少篇文章。 最后我們導入需要采集的關(guān)鍵詞或者長(cháng)尾關(guān)鍵詞,點(diǎn)擊保存開(kāi)始采集。 開(kāi)始采集后,可以實(shí)時(shí)看到工作進(jìn)程,可以非常直觀(guān)的清楚了解當前的工作情況。 這樣,原本很繁瑣的事情,通過(guò)知乎免費采集工具變得非常簡(jiǎn)單、高效、準確!
對于免費知乎文章采集,我們會(huì )采集以下字段:?jiǎn)?wèn)題名稱(chēng)、問(wèn)題描述、評論數、問(wèn)題網(wǎng)址、答案ID、答案ID描述、答案ID頭像、答案正文等字段。 操作簡(jiǎn)單傻瓜式,不需要我們編寫(xiě)采集規則。 強大的功能支持采集采集簡(jiǎn)單的設置即可采集到所有新聞源。 采集可以設置多個(gè)任務(wù),針對不同的來(lái)源進(jìn)行采集。
匯總:網(wǎng)頁(yè)批量抓取-批量 網(wǎng)頁(yè)數據一鍵抓取
爬取整個(gè)網(wǎng)頁(yè),我們如何在整個(gè)網(wǎng)頁(yè)上抓取我們想要的文章內容,很多人想到的就是內容爬取。 想到了學(xué)一門(mén)編程語(yǔ)言,最著(zhù)名的就是python爬蟲(chóng)。 如果完全自學(xué),從零開(kāi)始學(xué)習Python,我覺(jué)得至少需要半年到一年半的時(shí)間。 從某種程度上說(shuō),這樣的時(shí)間成本太高了。 那么如何才能在短時(shí)間內爬取整個(gè)網(wǎng)頁(yè)的內容呢? 【詳細參考圖片,軟件免費! 】
搜索引擎優(yōu)化,也稱(chēng)為SEO,是一種了解各種搜索引擎如何進(jìn)行搜索、如何抓取互聯(lián)網(wǎng)頁(yè)面以及如何確定特定關(guān)鍵詞的搜索結果排名的技術(shù)。 搜索引擎利用容易被搜索和引用的方式有針對性地優(yōu)化網(wǎng)站,提高網(wǎng)站在搜索引擎中的自然排名,吸引更多的用戶(hù)訪(fǎng)問(wèn)網(wǎng)站,增加網(wǎng)站的訪(fǎng)問(wèn)量,并提高網(wǎng)站的銷(xiāo)售能力和宣傳能力,提升網(wǎng)站的品牌效應。
網(wǎng)站搜索引擎優(yōu)化的任務(wù)主要是了解和了解其他搜索引擎如何抓取網(wǎng)頁(yè),如何索引,如何確定搜索關(guān)鍵詞等相關(guān)技術(shù),從而優(yōu)化本網(wǎng)頁(yè)的內容,確保其能夠符合用戶(hù)的瀏覽習慣,并在不影響網(wǎng)民體驗的情況下提高搜索引擎排名的現代技術(shù),從而增加網(wǎng)站的訪(fǎng)問(wèn)量,最終提高網(wǎng)站的推廣或銷(xiāo)售能力網(wǎng)站。 基于搜索引擎優(yōu)化處理,其實(shí)是為了讓這個(gè)網(wǎng)站更容易被搜索引擎所接受,搜索引擎往往會(huì )比較不同網(wǎng)站的內容,然后通過(guò)瀏覽器將這些內容完整、直接、快速地提供給網(wǎng)絡(luò )用戶(hù)。
SEO優(yōu)化就是讓網(wǎng)站內容更符合搜索引擎的算法和排名規則,更符合用戶(hù)體驗。 通過(guò)網(wǎng)站內部結構的調整優(yōu)化和站外SEO的推廣優(yōu)化,使網(wǎng)站滿(mǎn)足搜索引擎收錄和排名的需要。 用戶(hù)在搜索引擎中搜索關(guān)鍵詞時(shí),可以提高關(guān)鍵詞的相對網(wǎng)頁(yè)排名,從而獲取用戶(hù)流量,吸引精準客戶(hù)。 出于銷(xiāo)售產(chǎn)品或服務(wù)的目的被帶到網(wǎng)站。
現場(chǎng)優(yōu)化主要包括:
1.關(guān)鍵詞分析【用戶(hù)搜索行為分析、數據分析】
它是SEO優(yōu)化中最重要的部分。 關(guān)鍵詞分析包括關(guān)鍵詞搜索量分析、關(guān)鍵詞抓取競爭對手全站排名分析、關(guān)鍵詞與網(wǎng)站相關(guān)性分析、關(guān)鍵詞布局、關(guān)鍵詞網(wǎng)站文案策劃等。
2、網(wǎng)站設計,根據用戶(hù)關(guān)心的問(wèn)題,設計用戶(hù)喜歡的網(wǎng)站風(fēng)格。
3、網(wǎng)站結構,設計符合搜索引擎爬蟲(chóng)偏好,有利于SEO優(yōu)化的網(wǎng)站結構。
網(wǎng)站結構不宜太復雜,網(wǎng)站內容不宜太深,用戶(hù)關(guān)心的重要內容要易于查找,有利于用戶(hù)的瀏覽習慣。 一般為樹(shù)狀目錄結構或扁平目錄結構。 網(wǎng)站導航清晰,分類(lèi)精細,頁(yè)面布局美觀(guān)。
seo優(yōu)化的作用是提高網(wǎng)站關(guān)鍵詞在搜索引擎中的排名。 用戶(hù)搜索關(guān)鍵詞時(shí),可以將其展示在比較靠前的位置,讓用戶(hù)更容易找到公司的產(chǎn)品、服務(wù)和網(wǎng)站,獲得更多的展示機會(huì )和用戶(hù)點(diǎn)擊量,增加企業(yè)的曝光率品牌,帶來(lái)客戶(hù)。 以達到銷(xiāo)售產(chǎn)品和增加營(yíng)業(yè)額的目的。
SEO優(yōu)化還有很多其他的作用,主要有以下幾點(diǎn):
1、增加公司產(chǎn)品和服務(wù)的曝光度和品牌影響力。
2、SEO是一種非常好的網(wǎng)絡(luò )營(yíng)銷(xiāo)方式,可以不斷獲取精準客戶(hù)。
3.seo可以獲得廣泛的客戶(hù),可以有效降低企業(yè)的銷(xiāo)售成本。
從長(cháng)遠來(lái)看,與關(guān)鍵詞推廣相比,搜索引擎優(yōu)化不需要為每個(gè)用戶(hù)的點(diǎn)擊付費,這比PPC更有優(yōu)勢。 搜索引擎優(yōu)化可以忽略搜索引擎之間的獨立性。 即使只針對某個(gè)搜索引擎進(jìn)行優(yōu)化,網(wǎng)站在其他搜索引擎中的排名也會(huì )相應提高,達到企業(yè)在關(guān)鍵詞推廣上重復付費才能達到的效果。 .
4、可以有效降低企業(yè)的服務(wù)成本,更高效地為用戶(hù)服務(wù)。
5、增加企業(yè)的軟實(shí)力,增強企業(yè)客戶(hù)的信譽(yù)度。 查看全部
匯總:如何知乎采集數據方法大全
“內容為王”,站長(cháng)朋友們已經(jīng)非常認可這個(gè)觀(guān)點(diǎn)了。 那么一個(gè)網(wǎng)站如何創(chuàng )造更優(yōu)秀的內容呢? 這是網(wǎng)站管理員最大的問(wèn)題。 不是每個(gè)人都有這么好的文筆,寫(xiě)的像神一樣,每篇文章都能達到高質(zhì)量。 不是每個(gè)人都有那么多時(shí)間,每天花很多時(shí)間寫(xiě)文章和創(chuàng )作內容。 很多站長(cháng)選擇采集內容來(lái)充實(shí)自己的網(wǎng)站,但是胡亂采集一些文章,不僅不會(huì )增加網(wǎng)站的收錄和排名,反而會(huì )適得其反。

關(guān)于采集,如何找到優(yōu)質(zhì)的文章,首先要找一個(gè)優(yōu)質(zhì)的平臺進(jìn)行針對性的采集。 知乎是中文互聯(lián)網(wǎng)優(yōu)質(zhì)問(wèn)答社區,是創(chuàng )作者聚集的原創(chuàng )內容平臺。 生活和工作中遇到的很多問(wèn)題都可以在知乎上找到你想要的答案! 原因是因為知乎的回答比較權威靠譜。 知乎有幾個(gè)優(yōu)勢,使其成為吸引人們的重要渠道。 首先,知乎的權重非常高。 大家要知道,用戶(hù)在搜索相關(guān)信息和答案的時(shí)候,排在前幾位的一般都是知知乎文章或者知乎答案,可見(jiàn)知乎是一個(gè)深受人們喜愛(ài)的優(yōu)質(zhì)平臺。
說(shuō)了這么多優(yōu)點(diǎn),我們來(lái)說(shuō)說(shuō)如何采集知乎上的文章吧! 如果一一復制粘貼顯然不現實(shí),那么我們可以使用免費的知乎采集工具來(lái)完成繁瑣的采集工作。 首先我們新建一個(gè)采集任務(wù),比如知乎采集任務(wù),然后在采集數據中選擇搜狗知乎。 接下來(lái)選擇一個(gè)采集文章的文件夾,設置一個(gè)關(guān)鍵詞采集多少篇文章。 最后我們導入需要采集的關(guān)鍵詞或者長(cháng)尾關(guān)鍵詞,點(diǎn)擊保存開(kāi)始采集。 開(kāi)始采集后,可以實(shí)時(shí)看到工作進(jìn)程,可以非常直觀(guān)的清楚了解當前的工作情況。 這樣,原本很繁瑣的事情,通過(guò)知乎免費采集工具變得非常簡(jiǎn)單、高效、準確!

對于免費知乎文章采集,我們會(huì )采集以下字段:?jiǎn)?wèn)題名稱(chēng)、問(wèn)題描述、評論數、問(wèn)題網(wǎng)址、答案ID、答案ID描述、答案ID頭像、答案正文等字段。 操作簡(jiǎn)單傻瓜式,不需要我們編寫(xiě)采集規則。 強大的功能支持采集采集簡(jiǎn)單的設置即可采集到所有新聞源。 采集可以設置多個(gè)任務(wù),針對不同的來(lái)源進(jìn)行采集。
匯總:網(wǎng)頁(yè)批量抓取-批量 網(wǎng)頁(yè)數據一鍵抓取
爬取整個(gè)網(wǎng)頁(yè),我們如何在整個(gè)網(wǎng)頁(yè)上抓取我們想要的文章內容,很多人想到的就是內容爬取。 想到了學(xué)一門(mén)編程語(yǔ)言,最著(zhù)名的就是python爬蟲(chóng)。 如果完全自學(xué),從零開(kāi)始學(xué)習Python,我覺(jué)得至少需要半年到一年半的時(shí)間。 從某種程度上說(shuō),這樣的時(shí)間成本太高了。 那么如何才能在短時(shí)間內爬取整個(gè)網(wǎng)頁(yè)的內容呢? 【詳細參考圖片,軟件免費! 】
搜索引擎優(yōu)化,也稱(chēng)為SEO,是一種了解各種搜索引擎如何進(jìn)行搜索、如何抓取互聯(lián)網(wǎng)頁(yè)面以及如何確定特定關(guān)鍵詞的搜索結果排名的技術(shù)。 搜索引擎利用容易被搜索和引用的方式有針對性地優(yōu)化網(wǎng)站,提高網(wǎng)站在搜索引擎中的自然排名,吸引更多的用戶(hù)訪(fǎng)問(wèn)網(wǎng)站,增加網(wǎng)站的訪(fǎng)問(wèn)量,并提高網(wǎng)站的銷(xiāo)售能力和宣傳能力,提升網(wǎng)站的品牌效應。
網(wǎng)站搜索引擎優(yōu)化的任務(wù)主要是了解和了解其他搜索引擎如何抓取網(wǎng)頁(yè),如何索引,如何確定搜索關(guān)鍵詞等相關(guān)技術(shù),從而優(yōu)化本網(wǎng)頁(yè)的內容,確保其能夠符合用戶(hù)的瀏覽習慣,并在不影響網(wǎng)民體驗的情況下提高搜索引擎排名的現代技術(shù),從而增加網(wǎng)站的訪(fǎng)問(wèn)量,最終提高網(wǎng)站的推廣或銷(xiāo)售能力網(wǎng)站。 基于搜索引擎優(yōu)化處理,其實(shí)是為了讓這個(gè)網(wǎng)站更容易被搜索引擎所接受,搜索引擎往往會(huì )比較不同網(wǎng)站的內容,然后通過(guò)瀏覽器將這些內容完整、直接、快速地提供給網(wǎng)絡(luò )用戶(hù)。
SEO優(yōu)化就是讓網(wǎng)站內容更符合搜索引擎的算法和排名規則,更符合用戶(hù)體驗。 通過(guò)網(wǎng)站內部結構的調整優(yōu)化和站外SEO的推廣優(yōu)化,使網(wǎng)站滿(mǎn)足搜索引擎收錄和排名的需要。 用戶(hù)在搜索引擎中搜索關(guān)鍵詞時(shí),可以提高關(guān)鍵詞的相對網(wǎng)頁(yè)排名,從而獲取用戶(hù)流量,吸引精準客戶(hù)。 出于銷(xiāo)售產(chǎn)品或服務(wù)的目的被帶到網(wǎng)站。
現場(chǎng)優(yōu)化主要包括:

1.關(guān)鍵詞分析【用戶(hù)搜索行為分析、數據分析】
它是SEO優(yōu)化中最重要的部分。 關(guān)鍵詞分析包括關(guān)鍵詞搜索量分析、關(guān)鍵詞抓取競爭對手全站排名分析、關(guān)鍵詞與網(wǎng)站相關(guān)性分析、關(guān)鍵詞布局、關(guān)鍵詞網(wǎng)站文案策劃等。
2、網(wǎng)站設計,根據用戶(hù)關(guān)心的問(wèn)題,設計用戶(hù)喜歡的網(wǎng)站風(fēng)格。
3、網(wǎng)站結構,設計符合搜索引擎爬蟲(chóng)偏好,有利于SEO優(yōu)化的網(wǎng)站結構。
網(wǎng)站結構不宜太復雜,網(wǎng)站內容不宜太深,用戶(hù)關(guān)心的重要內容要易于查找,有利于用戶(hù)的瀏覽習慣。 一般為樹(shù)狀目錄結構或扁平目錄結構。 網(wǎng)站導航清晰,分類(lèi)精細,頁(yè)面布局美觀(guān)。
seo優(yōu)化的作用是提高網(wǎng)站關(guān)鍵詞在搜索引擎中的排名。 用戶(hù)搜索關(guān)鍵詞時(shí),可以將其展示在比較靠前的位置,讓用戶(hù)更容易找到公司的產(chǎn)品、服務(wù)和網(wǎng)站,獲得更多的展示機會(huì )和用戶(hù)點(diǎn)擊量,增加企業(yè)的曝光率品牌,帶來(lái)客戶(hù)。 以達到銷(xiāo)售產(chǎn)品和增加營(yíng)業(yè)額的目的。

SEO優(yōu)化還有很多其他的作用,主要有以下幾點(diǎn):
1、增加公司產(chǎn)品和服務(wù)的曝光度和品牌影響力。
2、SEO是一種非常好的網(wǎng)絡(luò )營(yíng)銷(xiāo)方式,可以不斷獲取精準客戶(hù)。
3.seo可以獲得廣泛的客戶(hù),可以有效降低企業(yè)的銷(xiāo)售成本。
從長(cháng)遠來(lái)看,與關(guān)鍵詞推廣相比,搜索引擎優(yōu)化不需要為每個(gè)用戶(hù)的點(diǎn)擊付費,這比PPC更有優(yōu)勢。 搜索引擎優(yōu)化可以忽略搜索引擎之間的獨立性。 即使只針對某個(gè)搜索引擎進(jìn)行優(yōu)化,網(wǎng)站在其他搜索引擎中的排名也會(huì )相應提高,達到企業(yè)在關(guān)鍵詞推廣上重復付費才能達到的效果。 .
4、可以有效降低企業(yè)的服務(wù)成本,更高效地為用戶(hù)服務(wù)。
5、增加企業(yè)的軟實(shí)力,增強企業(yè)客戶(hù)的信譽(yù)度。
匯總:【實(shí)時(shí)數倉】介紹、需求分析、統計架構分析和ods層日志行為數據采集
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 132 次瀏覽 ? 2022-12-23 06:25
文章目錄
電子商務(wù)實(shí)時(shí)數倉簡(jiǎn)介1 普通實(shí)時(shí)計算與實(shí)時(shí)
普通的實(shí)時(shí)計算優(yōu)先考慮時(shí)效性,所以通過(guò)實(shí)時(shí)計算直接從數據源采集得到結果。 這樣做的時(shí)效性比較好,但缺點(diǎn)是計算過(guò)程中的中間結果還沒(méi)有結算,所以在面對大量實(shí)時(shí)性需求時(shí),計算復用性差(比如B想使用 A) 的結果,開(kāi)發(fā)成本隨需求線(xiàn)性上升。
實(shí)時(shí)數據倉庫是基于一定的數據倉庫概念,對數據處理過(guò)程進(jìn)行規劃和分層,目的是提高數據的可重用性(例如e可以直接使用b的結果)。
2 實(shí)時(shí)電子商務(wù)數據倉庫的分層
項目分為以下幾層
2 實(shí)時(shí)數倉需求分析 1 離線(xiàn)計算與實(shí)時(shí)計算的比較
離線(xiàn)計算:所有輸入數據在計算開(kāi)始前都是已知的,輸入數據不會(huì )改變。 一般計算量級較大,計算時(shí)間較長(cháng)。 比如今天凌晨一點(diǎn),從昨天積累的日志中計算出需要的結果。 最經(jīng)典的是Hadoop的MapReduce方法;
通常,報告是根據前(幾天)天(T + 1(n))的數據生成的。 雖然統計指標和報表很多,但對時(shí)效性不敏感。 從技術(shù)操作的角度來(lái)看,這部分是批量操作。 即根據一定范圍的數據一次性計算。
實(shí)時(shí)計算:輸入數據可以串行化的方式一個(gè)接一個(gè)地輸入處理,也就是說(shuō)不需要一開(kāi)始就知道所有的輸入數據。 與離線(xiàn)計算相比,運行時(shí)間短,計算量較小。 強調計算過(guò)程的時(shí)間要短,即調查后立即給出結果。
主要針對當日(T+0)數據的實(shí)時(shí)監控。 通常,業(yè)務(wù)邏輯比線(xiàn)下需求更簡(jiǎn)單,統計指標也更少,但更注重數據的時(shí)效性和用戶(hù)交互。 從技術(shù)操作的角度來(lái)看,這部分屬于流處理的操作。 根據不斷到達的數據進(jìn)行實(shí)時(shí)計算。
大數據主要有兩種設計架構:
Flink 的流批合一是使用 Flink-SQL 實(shí)現的。 處理兩種數據的SQL是一樣的,區別在于數據的日期。
2 統計場(chǎng)景 (1) 日統計報表或分析圖表需要收錄當天的部分
對于企業(yè)和網(wǎng)站的日常運營(yíng)和管理,如果僅僅依靠離線(xiàn)計算,往往不能滿(mǎn)足數據的時(shí)效性。 通過(guò)實(shí)時(shí)計算獲取天、分、秒甚至亞秒級的數據,更便于企業(yè)快速響應和調整業(yè)務(wù)。
因此,實(shí)時(shí)計算結果往往需要與離線(xiàn)數據進(jìn)行合并或對比,并在BI或統計平臺上展示。
(2)實(shí)時(shí)數據大屏監控
數據大屏是比BI工具或數據分析平臺更直觀(guān)的數據可視化方式。 尤其是一些大的促銷(xiāo)活動(dòng),更是成為必備的營(yíng)銷(xiāo)手段。
此外,還有一些特殊行業(yè),如交通、電信等,大屏監控幾乎是必備的監控手段。
(3) 數據預警或提醒
通過(guò)大數據實(shí)時(shí)計算得到的一些風(fēng)控預警和營(yíng)銷(xiāo)信息提示,可以快速讓風(fēng)控或營(yíng)銷(xiāo)部門(mén)獲得信息,以便采取各種應對措施。
例如,如果用戶(hù)在電商、金融平臺上進(jìn)行了一些非法或欺詐性的操作,大數據的實(shí)時(shí)計算可以快速篩選出情況并傳送給風(fēng)控部門(mén)進(jìn)行處理,甚至可以自動(dòng)攔截。 . 或者檢測到用戶(hù)的行為對某些產(chǎn)品有強烈的購買(mǎi)意愿,那么就可以將這些“商機”推送給客服部門(mén),讓客服主動(dòng)跟進(jìn)。
(4) 實(shí)時(shí)推薦系統
實(shí)時(shí)推薦是根據用戶(hù)自身屬性結合當前訪(fǎng)問(wèn)行為,通過(guò)實(shí)時(shí)推薦算法計算,將用戶(hù)可能喜歡的商品、新聞、視頻等推送給用戶(hù)。
這種系統一般由用戶(hù)畫(huà)像的批處理和用戶(hù)行為分析的流處理組成。
三 統計架構分析 1 離線(xiàn)架構
MQ的作用:
2 實(shí)時(shí)架構
4 日志數據采集1 模擬使用日志生成器
這里提供了一個(gè)模擬生成數據的jar包,可以生成日志并發(fā)送到指定端口。 大數據程序員需要了解如何從指定端口接收數據并處理數據。
上傳文件application.yml、gmall2022-mock-log-2022-11-28.jar。
根據實(shí)際需要修改application.yml。
使用模擬日志生成器的jar 運行
java -jar gmall2022-mock-log-2022-11-28.jar
目前還沒(méi)有地址接收日志,所以程序運行后的結果有如下錯誤
注意:ZooKeeper從3.5開(kāi)始,AdminServer的端口也是8080,如果在本機啟動(dòng)zk,可能會(huì )看到405錯誤,意思是找到了請求地址,但是接收方式不對。
2 本地測試(一)SSM和SpringBoot
Spring:幫助程序員創(chuàng )建對象和管理對象之間的關(guān)系。
SpringMVC:接收客戶(hù)端的請求并響應。
mybatis:ORM(ObjectRelationMapption),將關(guān)系數據庫中的表映射到j(luò )ava中的類(lèi)。
SpringBoot集成了SSM,協(xié)議大于配置。
(2) 創(chuàng )建SpringBoot a 創(chuàng )建一個(gè)空的父項目gmall2022-parent 來(lái)管理后續所有模塊module
為了把各個(gè)模塊放在一起,但是模塊還是相互獨立的,所以創(chuàng )建一個(gè)Empty
項目足夠; 如果父模塊管理子模塊,需要將父模塊的pom.xml文件設置為pom.xml。
b 新建一個(gè)SpringBoot模塊作為采集日志服務(wù)器
在父項目下添加一個(gè)Module,選擇Spring Initializr。
注意:有時(shí)候SpringBoot官方腳手架不穩定,可以切換Custom,選擇國內地址。
c配置項目名稱(chēng)和JDK版本
d 選擇版本,通過(guò)勾選自動(dòng)添加lombok、SpringWeb、Kafka相關(guān)依賴(lài)
(3) 演示測試
創(chuàng )建FirstController輸出SpringBoot處理流程。
幾個(gè)注釋說(shuō)明:
/**
* 回顧SpringMVC Controller
<p>
*/
//@Controller
@RestController
public class FirstController {
@RequestMapping("/first")
//@ResponseBody
public String first(@RequestParam("hahaa") String username,
@RequestParam("heihei") String password){
System.out.println(username + "---" + password);
return "success";
}
}
</p>
(4) 模擬采集埋點(diǎn)數據并進(jìn)行處理
采集過(guò)程如下。 在服務(wù)器上執行jar包,啟動(dòng)本機執行程序,存盤(pán)到windows,最后由Kafka消費數據。
a 在resources中添加logback.xml配置文件
%msg%n
${LOG_HOME}/app.log
${LOG_HOME}/app.%d{yyyy-MM-dd}.log
%msg%n
logback配置文件說(shuō)明
記錄器:描述如何選擇附加程序的控制器。
注意:如果單獨為一個(gè)類(lèi)指定,不要忘記修改類(lèi)的全限定名。
日志級別從低到高:TRACE、[DEBUG、INFO、WARN、ERROR]、FATAL。
配置完成后,程序運行時(shí)讀取的是目標文件下的類(lèi),而不是resources下的logback.xml。
要使用它,需要在類(lèi)中添加Slf4j注解。
b 修改SpringBoot核心配置文件application.propeties
#============== kafka ===================
# 指定kafka 代理地址,可以多個(gè)
spring.kafka.bootstrap-servers=hadoop101:9092,hadoop102:9092,hadoop103:9092
# 指定消息key和消息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
c 在LoggerController中添加一個(gè)方法,用于打印、放置和發(fā)送日志到Kafka主題
@RestController
@Slf4j
public class LoggerController {
<p>
// 不使用Slf4j注解需要自己定義接收日志的對象
// private static final org.slf4j.Logger log = org.slf4j.LoggerFactory.getLogger(LoggerController.class);
@Autowired
private KafkaTemplate kafkaTemplate;
@RequestMapping("/applog")
public String log(@RequestParam("param") String logStr){
// 1 打印輸出到控制臺
// System.out.println(logStr);
// 2 落盤(pán),使用logback完成
log.info(logStr);
// 3 發(fā)送到kafka主題
kafkaTemplate.send("ods_base_log",logStr);
return "success";
}
}
</p>
寫(xiě)在卡夫卡:
Properties props = new Properties();
props.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop101:9092");
props.setProperty(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"");
props.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"");
KafkaProducer kafkaProducer = new KafkaProducer(props);
kafkaProducer.send(
/**
* 生產(chǎn)者的分區策略:
* 1 通過(guò)分區號指定固定分區
* 2 指定key,根據key獲取哈希值,對分區數做模運算,決定將數據發(fā)送到那一個(gè)分區內
* 3 粘性分區,不停的向一個(gè)分區發(fā)送數據,滿(mǎn)足以下條件之一,會(huì )改變分區
* 1)大于batchsize(默認16K)
* 2)大于一定時(shí)間
*/
new ProducerRecord("ods_base_log",logStr)
);
但是,SpringBoot是一個(gè)全家桶,為一些常用的組件提供了一些類(lèi)。
d kafka常用命令
服務(wù)器上將kafka的默認分區數修改為4個(gè)。
vim /opt/module/kafka_2.11-2.4.1/config/server.properties
num.partitions=4
# 啟動(dòng)zookeeper
zk.sh start
# 啟動(dòng)kafka
kfk.sh start
# 查看所有主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --list
# 創(chuàng )建主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --topic first --partitions 4 --replication-factor 2
# 查看主題詳情信息
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --describe --topic first
# 刪除主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --delete --topic first
# 101生產(chǎn)消息
bin/kafka-console-producer.sh --broker-list hadoop101:9092 --topic frist
# 101消費消息
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic first
e 修改hadoop101上rt_applog目錄下的application.yml配置文件
修改地址和日期,地址為本機地址。
檢驗
啟動(dòng)kafka消費者進(jìn)行測試。
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic ods_base_log
在 Windows 上運行 Idea 程序 LoggerApplication。
運行rt_applog下的jar包。
解決方案:關(guān)鍵詞采集工具有哪些(三種常用查找關(guān)鍵詞APP軟件)
無(wú)論是在Google上獲客,在社交媒體上找客戶(hù),還是在B2B平臺上找買(mǎi)家,最重要的是選擇合適的“關(guān)鍵詞”。
關(guān)鍵詞是我們在運營(yíng)中必須更加關(guān)注的,也是我們必須挖掘和深化的方向。 能否為產(chǎn)品找到合適的關(guān)鍵詞,也會(huì )直接影響到產(chǎn)品的銷(xiāo)量。
那么如何從買(mǎi)家的角度選擇合適的關(guān)鍵詞呢?
為大家推薦三種常用的關(guān)鍵詞搜索APP軟件
01
谷歌關(guān)鍵詞規劃師
谷歌關(guān)鍵字規劃師
使用這個(gè)關(guān)鍵詞工具,我們可以統計分析關(guān)鍵詞的流量情況,了解關(guān)鍵詞的SEO難度,得到更多相關(guān)的關(guān)鍵詞提示。
Google 關(guān)鍵詞 Planner可以幫助我們詳細了解不同關(guān)鍵詞在Google Search上的用戶(hù)查詢(xún)情況,從而為網(wǎng)站制定合適的關(guān)鍵詞策略,讓網(wǎng)站盡快獲得搜索流量。
首先,您需要開(kāi)設一個(gè) Google Ads 帳戶(hù):
打開(kāi)Goog??le Ads賬戶(hù)后,進(jìn)入其主界面,選擇上方工具欄中的工具與設置>>規劃>>關(guān)鍵字規劃師:
打開(kāi)這個(gè)工具后,可以看到Google 關(guān)鍵詞 Planner提供了以下兩個(gè)功能:
01
發(fā)現新關(guān)鍵詞
顧名思義,這個(gè)工具的作用就是幫助我們發(fā)現更多新的關(guān)鍵詞。 打開(kāi)后界面如下:
在這個(gè)關(guān)鍵詞工具中,有兩個(gè)渠道可以發(fā)現新關(guān)鍵詞:“先輸入關(guān)鍵字”和“先指定網(wǎng)站URL”。
?、傧容斎腙P(guān)鍵詞:輸入關(guān)鍵詞就是輸入你自己的產(chǎn)品或服務(wù)的關(guān)鍵詞,谷歌會(huì )根據你輸入的關(guān)鍵詞搜索其他相關(guān)的關(guān)鍵詞。
這里可以輸入多個(gè)關(guān)鍵詞,用逗號關(guān)鍵詞。 例如,如果產(chǎn)品是包包,您可以輸入男士包包和女士包包,以便找到更多相關(guān)的關(guān)鍵詞。
輸入關(guān)鍵詞后,還需要進(jìn)行其他設置。 關(guān)鍵詞信息只是搜索條件之一,必須選擇正確的搜索語(yǔ)言和地區。 如果您搜索的是英文關(guān)鍵詞,您需要選擇英文作為語(yǔ)言和外國,例如美國,這樣您可以獲得更準確的數據。
?、谑紫戎付ňW(wǎng)站網(wǎng)址:輸入域名或頁(yè)面查找關(guān)鍵詞。 輸入網(wǎng)站網(wǎng)址,谷歌會(huì )把這個(gè)網(wǎng)站作為關(guān)鍵詞來(lái)源,然后搜索更多相關(guān)的關(guān)鍵詞。 同樣,您需要選擇相應的語(yǔ)言和地區作為搜索條件。
02
獲取搜索量和預測數據
查看關(guān)鍵字的搜索量和其他歷史指標,以及對關(guān)鍵字未來(lái)表現的預測。
與之前發(fā)現新關(guān)鍵詞的工具相比,這個(gè)獲取搜索量數據的關(guān)鍵詞工具用處不大。 對發(fā)現新關(guān)鍵詞幫助不大。 如果你已經(jīng)有一個(gè)很大的關(guān)鍵詞列表,你可以使用這個(gè)工具來(lái)查詢(xún)他們的搜索量和一些相關(guān)數據,但是這些數據也可以通過(guò)之前的關(guān)鍵詞發(fā)現工具來(lái)查看。
該工具與關(guān)鍵詞發(fā)現工具的區別主要在于廣告推廣方面。 通過(guò)其預測數據,廣告主可以知道關(guān)鍵詞廣告在不同預算下可以獲得的點(diǎn)擊次數。
最后,就是選擇合適的關(guān)鍵詞。 一般來(lái)說(shuō),選擇關(guān)鍵詞要考慮三個(gè)因素:搜索流量、商業(yè)價(jià)值、SEO競爭。
02
谷歌趨勢
谷歌趨勢
如果你想知道某個(gè)相關(guān)關(guān)鍵詞的流量數據,那么Google Trends這個(gè)工具對我們來(lái)說(shuō)就大有幫助了。
能夠按類(lèi)別查看關(guān)鍵詞趨勢,使用 Google Trends 為內容計時(shí),并顯示趨勢向上的關(guān)鍵詞。
它可以反映某個(gè)關(guān)鍵詞在不同時(shí)期在谷歌搜索引擎中的顯示頻率和相關(guān)數據統計,可以比較兩個(gè)或多個(gè)搜索詞的相對流行度。
03
回答公眾
本工具整合了谷歌關(guān)鍵詞,形成自己的數據庫,尤其是長(cháng)尾關(guān)鍵詞,因此特別適合消費者需求研究、搜索引擎優(yōu)化、競爭研究等。
AnswerThePublic可以幫助我們獲取產(chǎn)品相關(guān)問(wèn)題提示、產(chǎn)品相關(guān)介詞提示等多維度的廣告創(chuàng )意建議,也可以實(shí)時(shí)了解這些推薦創(chuàng )意的搜索熱度。
當在 AnswerThePublic 中輸入關(guān)鍵詞時(shí),它將顯示有關(guān)問(wèn)題、介詞和字母表的信息。 查看全部
匯總:【實(shí)時(shí)數倉】介紹、需求分析、統計架構分析和ods層日志行為數據采集
文章目錄
電子商務(wù)實(shí)時(shí)數倉簡(jiǎn)介1 普通實(shí)時(shí)計算與實(shí)時(shí)
普通的實(shí)時(shí)計算優(yōu)先考慮時(shí)效性,所以通過(guò)實(shí)時(shí)計算直接從數據源采集得到結果。 這樣做的時(shí)效性比較好,但缺點(diǎn)是計算過(guò)程中的中間結果還沒(méi)有結算,所以在面對大量實(shí)時(shí)性需求時(shí),計算復用性差(比如B想使用 A) 的結果,開(kāi)發(fā)成本隨需求線(xiàn)性上升。
實(shí)時(shí)數據倉庫是基于一定的數據倉庫概念,對數據處理過(guò)程進(jìn)行規劃和分層,目的是提高數據的可重用性(例如e可以直接使用b的結果)。
2 實(shí)時(shí)電子商務(wù)數據倉庫的分層
項目分為以下幾層
2 實(shí)時(shí)數倉需求分析 1 離線(xiàn)計算與實(shí)時(shí)計算的比較
離線(xiàn)計算:所有輸入數據在計算開(kāi)始前都是已知的,輸入數據不會(huì )改變。 一般計算量級較大,計算時(shí)間較長(cháng)。 比如今天凌晨一點(diǎn),從昨天積累的日志中計算出需要的結果。 最經(jīng)典的是Hadoop的MapReduce方法;
通常,報告是根據前(幾天)天(T + 1(n))的數據生成的。 雖然統計指標和報表很多,但對時(shí)效性不敏感。 從技術(shù)操作的角度來(lái)看,這部分是批量操作。 即根據一定范圍的數據一次性計算。
實(shí)時(shí)計算:輸入數據可以串行化的方式一個(gè)接一個(gè)地輸入處理,也就是說(shuō)不需要一開(kāi)始就知道所有的輸入數據。 與離線(xiàn)計算相比,運行時(shí)間短,計算量較小。 強調計算過(guò)程的時(shí)間要短,即調查后立即給出結果。
主要針對當日(T+0)數據的實(shí)時(shí)監控。 通常,業(yè)務(wù)邏輯比線(xiàn)下需求更簡(jiǎn)單,統計指標也更少,但更注重數據的時(shí)效性和用戶(hù)交互。 從技術(shù)操作的角度來(lái)看,這部分屬于流處理的操作。 根據不斷到達的數據進(jìn)行實(shí)時(shí)計算。
大數據主要有兩種設計架構:
Flink 的流批合一是使用 Flink-SQL 實(shí)現的。 處理兩種數據的SQL是一樣的,區別在于數據的日期。
2 統計場(chǎng)景 (1) 日統計報表或分析圖表需要收錄當天的部分
對于企業(yè)和網(wǎng)站的日常運營(yíng)和管理,如果僅僅依靠離線(xiàn)計算,往往不能滿(mǎn)足數據的時(shí)效性。 通過(guò)實(shí)時(shí)計算獲取天、分、秒甚至亞秒級的數據,更便于企業(yè)快速響應和調整業(yè)務(wù)。
因此,實(shí)時(shí)計算結果往往需要與離線(xiàn)數據進(jìn)行合并或對比,并在BI或統計平臺上展示。
(2)實(shí)時(shí)數據大屏監控
數據大屏是比BI工具或數據分析平臺更直觀(guān)的數據可視化方式。 尤其是一些大的促銷(xiāo)活動(dòng),更是成為必備的營(yíng)銷(xiāo)手段。
此外,還有一些特殊行業(yè),如交通、電信等,大屏監控幾乎是必備的監控手段。
(3) 數據預警或提醒
通過(guò)大數據實(shí)時(shí)計算得到的一些風(fēng)控預警和營(yíng)銷(xiāo)信息提示,可以快速讓風(fēng)控或營(yíng)銷(xiāo)部門(mén)獲得信息,以便采取各種應對措施。
例如,如果用戶(hù)在電商、金融平臺上進(jìn)行了一些非法或欺詐性的操作,大數據的實(shí)時(shí)計算可以快速篩選出情況并傳送給風(fēng)控部門(mén)進(jìn)行處理,甚至可以自動(dòng)攔截。 . 或者檢測到用戶(hù)的行為對某些產(chǎn)品有強烈的購買(mǎi)意愿,那么就可以將這些“商機”推送給客服部門(mén),讓客服主動(dòng)跟進(jìn)。
(4) 實(shí)時(shí)推薦系統
實(shí)時(shí)推薦是根據用戶(hù)自身屬性結合當前訪(fǎng)問(wèn)行為,通過(guò)實(shí)時(shí)推薦算法計算,將用戶(hù)可能喜歡的商品、新聞、視頻等推送給用戶(hù)。
這種系統一般由用戶(hù)畫(huà)像的批處理和用戶(hù)行為分析的流處理組成。
三 統計架構分析 1 離線(xiàn)架構
MQ的作用:
2 實(shí)時(shí)架構
4 日志數據采集1 模擬使用日志生成器
這里提供了一個(gè)模擬生成數據的jar包,可以生成日志并發(fā)送到指定端口。 大數據程序員需要了解如何從指定端口接收數據并處理數據。
上傳文件application.yml、gmall2022-mock-log-2022-11-28.jar。
根據實(shí)際需要修改application.yml。
使用模擬日志生成器的jar 運行
java -jar gmall2022-mock-log-2022-11-28.jar
目前還沒(méi)有地址接收日志,所以程序運行后的結果有如下錯誤
注意:ZooKeeper從3.5開(kāi)始,AdminServer的端口也是8080,如果在本機啟動(dòng)zk,可能會(huì )看到405錯誤,意思是找到了請求地址,但是接收方式不對。
2 本地測試(一)SSM和SpringBoot
Spring:幫助程序員創(chuàng )建對象和管理對象之間的關(guān)系。
SpringMVC:接收客戶(hù)端的請求并響應。
mybatis:ORM(ObjectRelationMapption),將關(guān)系數據庫中的表映射到j(luò )ava中的類(lèi)。
SpringBoot集成了SSM,協(xié)議大于配置。
(2) 創(chuàng )建SpringBoot a 創(chuàng )建一個(gè)空的父項目gmall2022-parent 來(lái)管理后續所有模塊module
為了把各個(gè)模塊放在一起,但是模塊還是相互獨立的,所以創(chuàng )建一個(gè)Empty
項目足夠; 如果父模塊管理子模塊,需要將父模塊的pom.xml文件設置為pom.xml。
b 新建一個(gè)SpringBoot模塊作為采集日志服務(wù)器
在父項目下添加一個(gè)Module,選擇Spring Initializr。
注意:有時(shí)候SpringBoot官方腳手架不穩定,可以切換Custom,選擇國內地址。
c配置項目名稱(chēng)和JDK版本
d 選擇版本,通過(guò)勾選自動(dòng)添加lombok、SpringWeb、Kafka相關(guān)依賴(lài)
(3) 演示測試
創(chuàng )建FirstController輸出SpringBoot處理流程。
幾個(gè)注釋說(shuō)明:
/**
* 回顧SpringMVC Controller
<p>

*/
//@Controller
@RestController
public class FirstController {
@RequestMapping("/first")
//@ResponseBody
public String first(@RequestParam("hahaa") String username,
@RequestParam("heihei") String password){
System.out.println(username + "---" + password);
return "success";
}
}
</p>
(4) 模擬采集埋點(diǎn)數據并進(jìn)行處理
采集過(guò)程如下。 在服務(wù)器上執行jar包,啟動(dòng)本機執行程序,存盤(pán)到windows,最后由Kafka消費數據。
a 在resources中添加logback.xml配置文件
%msg%n
${LOG_HOME}/app.log
${LOG_HOME}/app.%d{yyyy-MM-dd}.log
%msg%n
logback配置文件說(shuō)明
記錄器:描述如何選擇附加程序的控制器。
注意:如果單獨為一個(gè)類(lèi)指定,不要忘記修改類(lèi)的全限定名。
日志級別從低到高:TRACE、[DEBUG、INFO、WARN、ERROR]、FATAL。
配置完成后,程序運行時(shí)讀取的是目標文件下的類(lèi),而不是resources下的logback.xml。
要使用它,需要在類(lèi)中添加Slf4j注解。
b 修改SpringBoot核心配置文件application.propeties
#============== kafka ===================
# 指定kafka 代理地址,可以多個(gè)
spring.kafka.bootstrap-servers=hadoop101:9092,hadoop102:9092,hadoop103:9092
# 指定消息key和消息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
c 在LoggerController中添加一個(gè)方法,用于打印、放置和發(fā)送日志到Kafka主題
@RestController
@Slf4j
public class LoggerController {
<p>

// 不使用Slf4j注解需要自己定義接收日志的對象
// private static final org.slf4j.Logger log = org.slf4j.LoggerFactory.getLogger(LoggerController.class);
@Autowired
private KafkaTemplate kafkaTemplate;
@RequestMapping("/applog")
public String log(@RequestParam("param") String logStr){
// 1 打印輸出到控制臺
// System.out.println(logStr);
// 2 落盤(pán),使用logback完成
log.info(logStr);
// 3 發(fā)送到kafka主題
kafkaTemplate.send("ods_base_log",logStr);
return "success";
}
}
</p>
寫(xiě)在卡夫卡:
Properties props = new Properties();
props.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop101:9092");
props.setProperty(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"");
props.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"");
KafkaProducer kafkaProducer = new KafkaProducer(props);
kafkaProducer.send(
/**
* 生產(chǎn)者的分區策略:
* 1 通過(guò)分區號指定固定分區
* 2 指定key,根據key獲取哈希值,對分區數做模運算,決定將數據發(fā)送到那一個(gè)分區內
* 3 粘性分區,不停的向一個(gè)分區發(fā)送數據,滿(mǎn)足以下條件之一,會(huì )改變分區
* 1)大于batchsize(默認16K)
* 2)大于一定時(shí)間
*/
new ProducerRecord("ods_base_log",logStr)
);
但是,SpringBoot是一個(gè)全家桶,為一些常用的組件提供了一些類(lèi)。
d kafka常用命令
服務(wù)器上將kafka的默認分區數修改為4個(gè)。
vim /opt/module/kafka_2.11-2.4.1/config/server.properties
num.partitions=4
# 啟動(dòng)zookeeper
zk.sh start
# 啟動(dòng)kafka
kfk.sh start
# 查看所有主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --list
# 創(chuàng )建主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --topic first --partitions 4 --replication-factor 2
# 查看主題詳情信息
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --describe --topic first
# 刪除主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --delete --topic first
# 101生產(chǎn)消息
bin/kafka-console-producer.sh --broker-list hadoop101:9092 --topic frist
# 101消費消息
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic first
e 修改hadoop101上rt_applog目錄下的application.yml配置文件
修改地址和日期,地址為本機地址。
檢驗
啟動(dòng)kafka消費者進(jìn)行測試。
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic ods_base_log
在 Windows 上運行 Idea 程序 LoggerApplication。
運行rt_applog下的jar包。
解決方案:關(guān)鍵詞采集工具有哪些(三種常用查找關(guān)鍵詞APP軟件)
無(wú)論是在Google上獲客,在社交媒體上找客戶(hù),還是在B2B平臺上找買(mǎi)家,最重要的是選擇合適的“關(guān)鍵詞”。
關(guān)鍵詞是我們在運營(yíng)中必須更加關(guān)注的,也是我們必須挖掘和深化的方向。 能否為產(chǎn)品找到合適的關(guān)鍵詞,也會(huì )直接影響到產(chǎn)品的銷(xiāo)量。
那么如何從買(mǎi)家的角度選擇合適的關(guān)鍵詞呢?
為大家推薦三種常用的關(guān)鍵詞搜索APP軟件
01
谷歌關(guān)鍵詞規劃師
谷歌關(guān)鍵字規劃師
使用這個(gè)關(guān)鍵詞工具,我們可以統計分析關(guān)鍵詞的流量情況,了解關(guān)鍵詞的SEO難度,得到更多相關(guān)的關(guān)鍵詞提示。
Google 關(guān)鍵詞 Planner可以幫助我們詳細了解不同關(guān)鍵詞在Google Search上的用戶(hù)查詢(xún)情況,從而為網(wǎng)站制定合適的關(guān)鍵詞策略,讓網(wǎng)站盡快獲得搜索流量。
首先,您需要開(kāi)設一個(gè) Google Ads 帳戶(hù):
打開(kāi)Goog??le Ads賬戶(hù)后,進(jìn)入其主界面,選擇上方工具欄中的工具與設置>>規劃>>關(guān)鍵字規劃師:
打開(kāi)這個(gè)工具后,可以看到Google 關(guān)鍵詞 Planner提供了以下兩個(gè)功能:

01
發(fā)現新關(guān)鍵詞
顧名思義,這個(gè)工具的作用就是幫助我們發(fā)現更多新的關(guān)鍵詞。 打開(kāi)后界面如下:
在這個(gè)關(guān)鍵詞工具中,有兩個(gè)渠道可以發(fā)現新關(guān)鍵詞:“先輸入關(guān)鍵字”和“先指定網(wǎng)站URL”。
?、傧容斎腙P(guān)鍵詞:輸入關(guān)鍵詞就是輸入你自己的產(chǎn)品或服務(wù)的關(guān)鍵詞,谷歌會(huì )根據你輸入的關(guān)鍵詞搜索其他相關(guān)的關(guān)鍵詞。
這里可以輸入多個(gè)關(guān)鍵詞,用逗號關(guān)鍵詞。 例如,如果產(chǎn)品是包包,您可以輸入男士包包和女士包包,以便找到更多相關(guān)的關(guān)鍵詞。
輸入關(guān)鍵詞后,還需要進(jìn)行其他設置。 關(guān)鍵詞信息只是搜索條件之一,必須選擇正確的搜索語(yǔ)言和地區。 如果您搜索的是英文關(guān)鍵詞,您需要選擇英文作為語(yǔ)言和外國,例如美國,這樣您可以獲得更準確的數據。
?、谑紫戎付ňW(wǎng)站網(wǎng)址:輸入域名或頁(yè)面查找關(guān)鍵詞。 輸入網(wǎng)站網(wǎng)址,谷歌會(huì )把這個(gè)網(wǎng)站作為關(guān)鍵詞來(lái)源,然后搜索更多相關(guān)的關(guān)鍵詞。 同樣,您需要選擇相應的語(yǔ)言和地區作為搜索條件。
02
獲取搜索量和預測數據
查看關(guān)鍵字的搜索量和其他歷史指標,以及對關(guān)鍵字未來(lái)表現的預測。
與之前發(fā)現新關(guān)鍵詞的工具相比,這個(gè)獲取搜索量數據的關(guān)鍵詞工具用處不大。 對發(fā)現新關(guān)鍵詞幫助不大。 如果你已經(jīng)有一個(gè)很大的關(guān)鍵詞列表,你可以使用這個(gè)工具來(lái)查詢(xún)他們的搜索量和一些相關(guān)數據,但是這些數據也可以通過(guò)之前的關(guān)鍵詞發(fā)現工具來(lái)查看。
該工具與關(guān)鍵詞發(fā)現工具的區別主要在于廣告推廣方面。 通過(guò)其預測數據,廣告主可以知道關(guān)鍵詞廣告在不同預算下可以獲得的點(diǎn)擊次數。

最后,就是選擇合適的關(guān)鍵詞。 一般來(lái)說(shuō),選擇關(guān)鍵詞要考慮三個(gè)因素:搜索流量、商業(yè)價(jià)值、SEO競爭。
02
谷歌趨勢
谷歌趨勢
如果你想知道某個(gè)相關(guān)關(guān)鍵詞的流量數據,那么Google Trends這個(gè)工具對我們來(lái)說(shuō)就大有幫助了。
能夠按類(lèi)別查看關(guān)鍵詞趨勢,使用 Google Trends 為內容計時(shí),并顯示趨勢向上的關(guān)鍵詞。
它可以反映某個(gè)關(guān)鍵詞在不同時(shí)期在谷歌搜索引擎中的顯示頻率和相關(guān)數據統計,可以比較兩個(gè)或多個(gè)搜索詞的相對流行度。
03
回答公眾
本工具整合了谷歌關(guān)鍵詞,形成自己的數據庫,尤其是長(cháng)尾關(guān)鍵詞,因此特別適合消費者需求研究、搜索引擎優(yōu)化、競爭研究等。
AnswerThePublic可以幫助我們獲取產(chǎn)品相關(guān)問(wèn)題提示、產(chǎn)品相關(guān)介詞提示等多維度的廣告創(chuàng )意建議,也可以實(shí)時(shí)了解這些推薦創(chuàng )意的搜索熱度。
當在 AnswerThePublic 中輸入關(guān)鍵詞時(shí),它將顯示有關(guān)問(wèn)題、介詞和字母表的信息。
解決方案:數據技術(shù)篇之實(shí)時(shí)技術(shù)
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 82 次瀏覽 ? 2022-12-23 06:25
第 5 章實(shí)時(shí)技術(shù)
在大數據系統中,離線(xiàn)批處理技術(shù)可以滿(mǎn)足很多數據使用場(chǎng)景的需求,但在DT時(shí)代,每天面對的信息瞬息萬(wàn)變,越來(lái)越多的應用場(chǎng)景對數據的時(shí)效性提出了更高的要求。 要求。 數據的價(jià)值是時(shí)效性的。 當一條數據產(chǎn)生時(shí),如果不能及時(shí)處理并在業(yè)務(wù)系統中使用,數據就無(wú)法保持最高的“新鮮度”和價(jià)值最大化。 因此,阿里巴巴提出了流式實(shí)時(shí)處理技術(shù)來(lái)補充離線(xiàn)批處理技術(shù)。
流式數據處理一般具有以下特點(diǎn):
時(shí)效性高
常駐代表團
高性能要求
應用限制
5.1 流式架構
按功能分,主要包括:
資料采集
數據處理
數據存儲
數據服務(wù)
按數據采集類(lèi)型可分為:
數據庫變更日志:如MySQL binlog log、Hbase hlog log、OceanBase change log、Oracle change log等。
引擎訪(fǎng)問(wèn)日志:如用戶(hù)訪(fǎng)問(wèn)網(wǎng)站產(chǎn)生的Apache引擎日志、搜索引擎的接口查詢(xún)日志等。
數據采集原則:
數據大小限制:當達到限制條件時(shí),當前采集的新數據將被視為一批(例如一批512KB)。
time threshold limit:當時(shí)間達到一定條件時(shí),會(huì )將目前采集的新數據也作為一個(gè)batch,避免數據量小的時(shí)候不一直采集(比如寫(xiě)一個(gè)batch in 30秒)
消息系統和數據中間件
消息系統:
消息系統是數據庫變更的上游,其數據延遲遠低于數據中間件,但支持的吞吐量有限。 一般用作業(yè)務(wù)數據庫變更的消息傳遞,如下單、支付等消息。
消息中間件:
作為數據交換平臺,將采集的數據分發(fā)到下游處理大業(yè)務(wù)數據(每天幾十TB的容量)
時(shí)間敏感的吞吐量
消息系統
毫秒
低的
數據中間件
第二
高的
阿里采用的六九三引擎系統是阿里源提供的流計算系統:
流計算系統涵蓋了從數據采集到數據生產(chǎn)的所有環(huán)節,力求保障流計算的嚴謹可靠發(fā)展。 SQL語(yǔ)義提供的流式數據分析能力(StreamSQL),讓流式數據分析的門(mén)檻不復存在。 它在Storm的基礎上包裹了一層SQL語(yǔ)義,方便開(kāi)發(fā)者通過(guò)編寫(xiě)SQL實(shí)現實(shí)時(shí)計算,無(wú)需關(guān)心計算狀態(tài)的細節,大大提高開(kāi)發(fā)效率,降低流計算的門(mén)檻。 當然,它也支持傳統模式的開(kāi)發(fā),就像Hadoop中的Hive MapReduce關(guān)系一樣,根據不同的應用場(chǎng)景選擇不同的方式。 此外,StreamCompute還提供流計算開(kāi)發(fā)平臺。 在該平臺上,無(wú)需登錄服務(wù)器操作即可完成應用的相關(guān)運維,大大提高了運維效率。
業(yè)界廣泛使用的流計算系統:
Twitter的開(kāi)源Storm系統
雅虎的開(kāi)源S4系統
阿帕奇公園流媒體
弗林克
流數據處理原理,以Storm為例:
spout:topology的輸入,從數據中間件中讀取數據,按照自定義的分發(fā)規則發(fā)送給下游的bolt。 可以有多個(gè)輸入源。
bolt:業(yè)務(wù)處理單元,可以根據處理邏輯分為多個(gè)步驟,其中的數據分布規則也是自定義的。
實(shí)時(shí)任務(wù)的典型問(wèn)題:
(1)去重指標
去重分為:
精確的重復數據刪除。 在這種情況下,必須保留詳細數據。 當遇到內存問(wèn)題時(shí),可以使用數據傾斜來(lái)處理,可以將一個(gè)節點(diǎn)的內存壓力分攤到多個(gè)節點(diǎn)上。
模糊去重。當需要去重的詳細數據量非常大,對業(yè)務(wù)的準確性要求不高時(shí),可以使用相關(guān)的去重算法,將內存占用降低到千分之一甚至萬(wàn)分之一,提高內存利用率
去重方法:
?、俨悸∵^(guò)濾器
該算法是位數組算法的應用,不保存真正的明細數據,只保存明細數據哈希值對應的標記位。 當然會(huì )出現hash值沖突,但是錯誤率是可以控制的,計算出來(lái)的去重值比真實(shí)值要小。 使用該算法存儲1億條數據只需要100MB的空間。
適用于統計精度不高,統計維度值較多的場(chǎng)景。 比如統計全網(wǎng)各個(gè)商戶(hù)的UV數據顯示,記錄數達到千萬(wàn)條。因為各個(gè)維度之間,Bloom filter是可以共享的
?、?基數估計
該算法還利用散列的原理,根據數據的分散程度估計現有數據集的邊界,從而得到去重值的近似和。 此處估計的重復數據刪除值可能大于或小于實(shí)際值。 使用該算法存儲1億條數據只需要幾KB的內存。
適用場(chǎng)景:統計精度不高,統計維度很粗。 比如整個(gè)市場(chǎng)的UV數據,每天只有一條記錄。 基數估計不能在各個(gè)維度的值之間共享。 比如統計全天幾個(gè)小時(shí)的UV數據,需要24個(gè)基數估計對象,不適合細粒度的統計場(chǎng)景。
(2) 數據傾斜
解決方案:
?、偃ブ刂笜巳胪?br /> 通過(guò)對去重后的值進(jìn)行分桶,將相同的值放入同一個(gè)桶中進(jìn)行去重,最后將每個(gè)桶中的值相加得到總值。 在這里,CPU 和內存資源。
?、?非重復指標的桶
數據隨機分布到每個(gè)桶中,最后匯總每個(gè)桶的值,主要是利用每個(gè)桶的CPU容量。
(3) 交易處理
保證交易的冪等性:
?、?超時(shí)時(shí)間:由于數據處理是分批進(jìn)行的,當一批數據處理超時(shí)后,將從拓撲的spout端重新發(fā)送數據。 另外,批量處理的數據量不宜過(guò)大,應增加限流功能(限制一批數據的記錄數或容量等),避免數據處理超時(shí)。
?、?交易信息:每批數據都會(huì )附帶一個(gè)交易ID信息。 在重傳的情況下,開(kāi)發(fā)者可以根據交易信息判斷數據第一次到達和重傳時(shí)的不同處理邏輯。
?、?備份機制:開(kāi)發(fā)者需要保證內存數據可以通過(guò)外存恢復,因此需要將計算中使用的中間結果數據備份到外存。
實(shí)時(shí)任務(wù)在運行過(guò)程中,會(huì )計算出很多維度和指標,這些數據需要存儲在存儲系統中,用于恢復或關(guān)聯(lián)。 涉及三種類(lèi)型的數據:
中間計算結果:在實(shí)時(shí)應用處理過(guò)程中,會(huì )保存一些狀態(tài)(如去重指標的詳細數據),用于發(fā)生故障時(shí)利用數據庫中的數據恢復內存站點(diǎn)。
最終結果數據:指經(jīng)過(guò)ETL處理后的實(shí)時(shí)結果數據。 這些數據是實(shí)時(shí)更新的,寫(xiě)入頻率非常高,可以直接供下游使用。
維表數據:在離線(xiàn)計算系統中,通過(guò)同步工具導入到在線(xiàn)存儲系統中,實(shí)現實(shí)時(shí)任務(wù)與實(shí)時(shí)流數據的關(guān)聯(lián)。 維度表的使用將在后面的章節中討論。
對于海量數據的實(shí)時(shí)計算,一般采用非關(guān)系型數據庫來(lái)應對大量的并發(fā)讀寫(xiě)。 以下是數據統計中表名設計的一些時(shí)間體會(huì ):
(1)表名設計
設計規則:匯總層識別+數據域+主維度+時(shí)間維度
例如:dws_trd_slr_dtr,表示匯總層的交易數據,按照賣(mài)家主維度(slr)+截至當日0點(diǎn)(dtr)統計匯總。
這樣做的好處是,所有主維度相同的數據都放在一張物理表中,避免了表太多,難以維護。 另外從表名可以直觀(guān)的看出存儲了哪些數據內容,方便排查問(wèn)題。
(2) rowkey設計
設計規則:MD5+主維度+維度標識+子維度1+時(shí)間維度+子維度2
例如:賣(mài)家ID的MD5前四位+賣(mài)家ID+app+一級類(lèi)目ID+ddd+二級類(lèi)目ID
使用MD5的前四位作為rowkey的第一部分,可以對數據進(jìn)行哈希處理,使服務(wù)器整體負載均衡,避免熱點(diǎn)。 上例中賣(mài)家ID在主維度,查數據時(shí)必須傳入。 每個(gè)統計維度都會(huì )生成一個(gè)維度ID,用于rowkey上的區分。
5.2 流數據模型
流式數據模型一般分為五層:
(1)ODS:改變訂單粒度的過(guò)程,一個(gè)訂單有多條記錄。
(2) DWD:訂單粒度的支付記錄,一個(gè)訂單只有一條記錄
(3) DWS:賣(mài)家實(shí)時(shí)交易金額,一個(gè)賣(mài)家只有一條記錄,指標實(shí)時(shí)刷新。
(4)ADS:外賣(mài)專(zhuān)區的實(shí)時(shí)交易金額,僅供外賣(mài)商家使用
(5)DIM:訂單商品類(lèi)別與行業(yè)對應關(guān)系的維度表。
在流計算中,經(jīng)常需要將兩個(gè)實(shí)時(shí)流關(guān)聯(lián)一個(gè)主鍵,得到對應的時(shí)間安排。下圖是訂單信息表和支付信息表的關(guān)系示意圖
在上面的例子中,兩個(gè)表的數據是實(shí)時(shí)采集的,每有一條新的數據到來(lái),就在內存中的另一張表的當前全量數據中查找。 如果能找到,則表示關(guān)聯(lián)成功,直接輸出: 如果沒(méi)有找到,則將數據放入內存中自己表的數據集中等待。 另外,無(wú)論關(guān)聯(lián)是否成功,都需要將內存中的數據備份到外部存儲系統中。 當任務(wù)重啟時(shí),可以從外部存儲系統恢復內存數據,保證數據不丟失。 因為重啟時(shí),任務(wù)繼續運行,不會(huì )重新運行之前的數據。
另外,訂單記錄的變更可能會(huì )發(fā)生多次(比如訂單的多個(gè)字段被多次更新)。 這種情況下,需要根據訂單ID進(jìn)行去重,避免A表和B表多次關(guān)聯(lián)成功; 否則輸出到下游會(huì )有多條記錄,這樣得到的數據會(huì )重復。
(1) 為什么要用維表
數據未及時(shí)準備好
無(wú)法準確獲取全量最新數據
資料亂序
(2)維表的使用形式
滿(mǎn)載
增量加載
5.3 大促特色及保障
毫秒延遲
洪峰明顯
高安全性
(1) 如何優(yōu)化實(shí)時(shí)任務(wù)
獨享資源與共享資源策略
合理選擇緩存機制,盡量減少讀寫(xiě)庫的次數
合并計算單元以降低拓撲級別
共享內存對象以避免字符復制
平衡高吞吐量和低延遲
(2) 如何保證數據鏈路
進(jìn)行多機房容災和異地容災。下圖是多機房容災示意圖
(3) 如何進(jìn)行壓力測試
數據壓測:數據壓測主要是洪流存儲壓測,就是把數小時(shí)甚至幾天的數據累積起來(lái),在某個(gè)時(shí)刻全部釋放。
產(chǎn)品壓力測試:
?、?產(chǎn)品本身的壓力測試
采集大屏服務(wù)器所有讀操作的url,通過(guò)壓測平臺進(jìn)行壓測流量回放,按照QPS目標:500次/秒進(jìn)行壓測。 在壓測過(guò)程中,迭代優(yōu)化服務(wù)器性能,提升大屏應用的數據處理性能。
?、?前端頁(yè)面穩定性測試
在瀏覽器中打開(kāi)大屏頁(yè)面,進(jìn)行8-24小時(shí)的前端頁(yè)面穩定性測試。 監控大屏前端JS對客戶(hù)端瀏覽器的內存和CPU消耗,檢測并修復前端JS內存泄露等問(wèn)題,提高前端頁(yè)面的穩定性。
解決方案:目前網(wǎng)站怎么優(yōu)化才好?淺析當下網(wǎng)站優(yōu)化的新思維新方法
網(wǎng)站優(yōu)化在這個(gè)行業(yè)由來(lái)已久,許多優(yōu)化方法已經(jīng)約定俗成,并被反復采納和使用。 不得不說(shuō),搜索引擎的算法日新月異,用舊的概念和方法做優(yōu)化可能有點(diǎn)偏。 需要一些新思路和新方法。 這些東西需要長(cháng)期觀(guān)察和總結最新的優(yōu)質(zhì)站點(diǎn)。
1、不要老是傳統的企業(yè)網(wǎng)站。 營(yíng)銷(xiāo)網(wǎng)站更受搜索引擎歡迎。
傳統的網(wǎng)站模式千篇一律,缺乏新意,造成了人們的視覺(jué)疲勞。 一個(gè)營(yíng)銷(xiāo)網(wǎng)站,利用適當的圖文,直觀(guān)地展示產(chǎn)品的特點(diǎn)和優(yōu)勢,才能吸引大家的眼球。
2、網(wǎng)站內部頁(yè)面細節需要更新,內部鏈接網(wǎng)絡(luò )要逐步編制。
嘗試閱讀新聞列表頁(yè)面上的部分內容介紹。 以往的企業(yè)網(wǎng)站大多直接展示新聞標題列表; 公司簡(jiǎn)介和聯(lián)系我們頁(yè)面。 側邊欄最好設置新聞推薦等一些欄目,避免內鏈太少; 盡量在商品詳情頁(yè)的側邊欄展示一些商品推薦,增加商品的豐富度; 在新聞詳情頁(yè)下,最好設置相關(guān)閱讀等,增加文章的連貫性。 總而言之,內部?jì)热輵摼幊删W(wǎng)絡(luò )。
3、網(wǎng)站關(guān)鍵詞不一定越少越好。
很多人有一個(gè)誤區,認為關(guān)鍵詞設置的越少,網(wǎng)站賦予這個(gè)關(guān)鍵詞的權重越高,這個(gè)詞越容易出現。 有一定的道理,但這種現象在實(shí)際操作中并不明顯。 關(guān)鍵詞設置要遵循的原則是關(guān)鍵詞一定要有相關(guān)性,盡量多設置,十幾個(gè)也可以。 那么文章的信息量就盡可能的大,質(zhì)量就盡可能的高,體現出這些關(guān)鍵詞的密度。 關(guān)鍵詞會(huì )一個(gè)接一個(gè)的出現,帶動(dòng)一個(gè)接一個(gè),互相影響,更好的達到優(yōu)化效果。
4.外鏈作用不大,反鏈卻很有用。
外鏈現在是一個(gè)輔助功能,優(yōu)質(zhì)的外鏈平臺越來(lái)越少,所以做好內鏈顯得更為重要。 盡可能多做高質(zhì)量的友情鏈接,對網(wǎng)站是非常有利的。
5、優(yōu)質(zhì)的內鏈和流量起到核心作用。
內鏈怎么做,首先內容一定要高質(zhì)量,盡量偽原創(chuàng )和原創(chuàng ),即使是粘貼復制,也盡量插入一些圖片修改一下。 一天四五篇新聞是正確的做法。 一個(gè)制作精良的網(wǎng)站每天必須有四篇新聞文章。 無(wú)論你多么原創(chuàng ),它都是無(wú)用的。 流量不用多說(shuō),正規的引流必不可少。 查看全部
解決方案:數據技術(shù)篇之實(shí)時(shí)技術(shù)
第 5 章實(shí)時(shí)技術(shù)
在大數據系統中,離線(xiàn)批處理技術(shù)可以滿(mǎn)足很多數據使用場(chǎng)景的需求,但在DT時(shí)代,每天面對的信息瞬息萬(wàn)變,越來(lái)越多的應用場(chǎng)景對數據的時(shí)效性提出了更高的要求。 要求。 數據的價(jià)值是時(shí)效性的。 當一條數據產(chǎn)生時(shí),如果不能及時(shí)處理并在業(yè)務(wù)系統中使用,數據就無(wú)法保持最高的“新鮮度”和價(jià)值最大化。 因此,阿里巴巴提出了流式實(shí)時(shí)處理技術(shù)來(lái)補充離線(xiàn)批處理技術(shù)。
流式數據處理一般具有以下特點(diǎn):
時(shí)效性高
常駐代表團
高性能要求
應用限制
5.1 流式架構
按功能分,主要包括:
資料采集
數據處理
數據存儲
數據服務(wù)
按數據采集類(lèi)型可分為:
數據庫變更日志:如MySQL binlog log、Hbase hlog log、OceanBase change log、Oracle change log等。
引擎訪(fǎng)問(wèn)日志:如用戶(hù)訪(fǎng)問(wèn)網(wǎng)站產(chǎn)生的Apache引擎日志、搜索引擎的接口查詢(xún)日志等。
數據采集原則:
數據大小限制:當達到限制條件時(shí),當前采集的新數據將被視為一批(例如一批512KB)。
time threshold limit:當時(shí)間達到一定條件時(shí),會(huì )將目前采集的新數據也作為一個(gè)batch,避免數據量小的時(shí)候不一直采集(比如寫(xiě)一個(gè)batch in 30秒)
消息系統和數據中間件
消息系統:
消息系統是數據庫變更的上游,其數據延遲遠低于數據中間件,但支持的吞吐量有限。 一般用作業(yè)務(wù)數據庫變更的消息傳遞,如下單、支付等消息。
消息中間件:
作為數據交換平臺,將采集的數據分發(fā)到下游處理大業(yè)務(wù)數據(每天幾十TB的容量)
時(shí)間敏感的吞吐量
消息系統
毫秒
低的
數據中間件
第二
高的
阿里采用的六九三引擎系統是阿里源提供的流計算系統:
流計算系統涵蓋了從數據采集到數據生產(chǎn)的所有環(huán)節,力求保障流計算的嚴謹可靠發(fā)展。 SQL語(yǔ)義提供的流式數據分析能力(StreamSQL),讓流式數據分析的門(mén)檻不復存在。 它在Storm的基礎上包裹了一層SQL語(yǔ)義,方便開(kāi)發(fā)者通過(guò)編寫(xiě)SQL實(shí)現實(shí)時(shí)計算,無(wú)需關(guān)心計算狀態(tài)的細節,大大提高開(kāi)發(fā)效率,降低流計算的門(mén)檻。 當然,它也支持傳統模式的開(kāi)發(fā),就像Hadoop中的Hive MapReduce關(guān)系一樣,根據不同的應用場(chǎng)景選擇不同的方式。 此外,StreamCompute還提供流計算開(kāi)發(fā)平臺。 在該平臺上,無(wú)需登錄服務(wù)器操作即可完成應用的相關(guān)運維,大大提高了運維效率。
業(yè)界廣泛使用的流計算系統:
Twitter的開(kāi)源Storm系統
雅虎的開(kāi)源S4系統
阿帕奇公園流媒體

弗林克
流數據處理原理,以Storm為例:
spout:topology的輸入,從數據中間件中讀取數據,按照自定義的分發(fā)規則發(fā)送給下游的bolt。 可以有多個(gè)輸入源。
bolt:業(yè)務(wù)處理單元,可以根據處理邏輯分為多個(gè)步驟,其中的數據分布規則也是自定義的。
實(shí)時(shí)任務(wù)的典型問(wèn)題:
(1)去重指標
去重分為:
精確的重復數據刪除。 在這種情況下,必須保留詳細數據。 當遇到內存問(wèn)題時(shí),可以使用數據傾斜來(lái)處理,可以將一個(gè)節點(diǎn)的內存壓力分攤到多個(gè)節點(diǎn)上。
模糊去重。當需要去重的詳細數據量非常大,對業(yè)務(wù)的準確性要求不高時(shí),可以使用相關(guān)的去重算法,將內存占用降低到千分之一甚至萬(wàn)分之一,提高內存利用率
去重方法:
?、俨悸∵^(guò)濾器
該算法是位數組算法的應用,不保存真正的明細數據,只保存明細數據哈希值對應的標記位。 當然會(huì )出現hash值沖突,但是錯誤率是可以控制的,計算出來(lái)的去重值比真實(shí)值要小。 使用該算法存儲1億條數據只需要100MB的空間。
適用于統計精度不高,統計維度值較多的場(chǎng)景。 比如統計全網(wǎng)各個(gè)商戶(hù)的UV數據顯示,記錄數達到千萬(wàn)條。因為各個(gè)維度之間,Bloom filter是可以共享的
?、?基數估計
該算法還利用散列的原理,根據數據的分散程度估計現有數據集的邊界,從而得到去重值的近似和。 此處估計的重復數據刪除值可能大于或小于實(shí)際值。 使用該算法存儲1億條數據只需要幾KB的內存。
適用場(chǎng)景:統計精度不高,統計維度很粗。 比如整個(gè)市場(chǎng)的UV數據,每天只有一條記錄。 基數估計不能在各個(gè)維度的值之間共享。 比如統計全天幾個(gè)小時(shí)的UV數據,需要24個(gè)基數估計對象,不適合細粒度的統計場(chǎng)景。
(2) 數據傾斜
解決方案:
?、偃ブ刂笜巳胪?br /> 通過(guò)對去重后的值進(jìn)行分桶,將相同的值放入同一個(gè)桶中進(jìn)行去重,最后將每個(gè)桶中的值相加得到總值。 在這里,CPU 和內存資源。
?、?非重復指標的桶
數據隨機分布到每個(gè)桶中,最后匯總每個(gè)桶的值,主要是利用每個(gè)桶的CPU容量。
(3) 交易處理
保證交易的冪等性:
?、?超時(shí)時(shí)間:由于數據處理是分批進(jìn)行的,當一批數據處理超時(shí)后,將從拓撲的spout端重新發(fā)送數據。 另外,批量處理的數據量不宜過(guò)大,應增加限流功能(限制一批數據的記錄數或容量等),避免數據處理超時(shí)。
?、?交易信息:每批數據都會(huì )附帶一個(gè)交易ID信息。 在重傳的情況下,開(kāi)發(fā)者可以根據交易信息判斷數據第一次到達和重傳時(shí)的不同處理邏輯。
?、?備份機制:開(kāi)發(fā)者需要保證內存數據可以通過(guò)外存恢復,因此需要將計算中使用的中間結果數據備份到外存。
實(shí)時(shí)任務(wù)在運行過(guò)程中,會(huì )計算出很多維度和指標,這些數據需要存儲在存儲系統中,用于恢復或關(guān)聯(lián)。 涉及三種類(lèi)型的數據:
中間計算結果:在實(shí)時(shí)應用處理過(guò)程中,會(huì )保存一些狀態(tài)(如去重指標的詳細數據),用于發(fā)生故障時(shí)利用數據庫中的數據恢復內存站點(diǎn)。
最終結果數據:指經(jīng)過(guò)ETL處理后的實(shí)時(shí)結果數據。 這些數據是實(shí)時(shí)更新的,寫(xiě)入頻率非常高,可以直接供下游使用。
維表數據:在離線(xiàn)計算系統中,通過(guò)同步工具導入到在線(xiàn)存儲系統中,實(shí)現實(shí)時(shí)任務(wù)與實(shí)時(shí)流數據的關(guān)聯(lián)。 維度表的使用將在后面的章節中討論。
對于海量數據的實(shí)時(shí)計算,一般采用非關(guān)系型數據庫來(lái)應對大量的并發(fā)讀寫(xiě)。 以下是數據統計中表名設計的一些時(shí)間體會(huì ):
(1)表名設計
設計規則:匯總層識別+數據域+主維度+時(shí)間維度
例如:dws_trd_slr_dtr,表示匯總層的交易數據,按照賣(mài)家主維度(slr)+截至當日0點(diǎn)(dtr)統計匯總。
這樣做的好處是,所有主維度相同的數據都放在一張物理表中,避免了表太多,難以維護。 另外從表名可以直觀(guān)的看出存儲了哪些數據內容,方便排查問(wèn)題。
(2) rowkey設計
設計規則:MD5+主維度+維度標識+子維度1+時(shí)間維度+子維度2
例如:賣(mài)家ID的MD5前四位+賣(mài)家ID+app+一級類(lèi)目ID+ddd+二級類(lèi)目ID

使用MD5的前四位作為rowkey的第一部分,可以對數據進(jìn)行哈希處理,使服務(wù)器整體負載均衡,避免熱點(diǎn)。 上例中賣(mài)家ID在主維度,查數據時(shí)必須傳入。 每個(gè)統計維度都會(huì )生成一個(gè)維度ID,用于rowkey上的區分。
5.2 流數據模型
流式數據模型一般分為五層:
(1)ODS:改變訂單粒度的過(guò)程,一個(gè)訂單有多條記錄。
(2) DWD:訂單粒度的支付記錄,一個(gè)訂單只有一條記錄
(3) DWS:賣(mài)家實(shí)時(shí)交易金額,一個(gè)賣(mài)家只有一條記錄,指標實(shí)時(shí)刷新。
(4)ADS:外賣(mài)專(zhuān)區的實(shí)時(shí)交易金額,僅供外賣(mài)商家使用
(5)DIM:訂單商品類(lèi)別與行業(yè)對應關(guān)系的維度表。
在流計算中,經(jīng)常需要將兩個(gè)實(shí)時(shí)流關(guān)聯(lián)一個(gè)主鍵,得到對應的時(shí)間安排。下圖是訂單信息表和支付信息表的關(guān)系示意圖
在上面的例子中,兩個(gè)表的數據是實(shí)時(shí)采集的,每有一條新的數據到來(lái),就在內存中的另一張表的當前全量數據中查找。 如果能找到,則表示關(guān)聯(lián)成功,直接輸出: 如果沒(méi)有找到,則將數據放入內存中自己表的數據集中等待。 另外,無(wú)論關(guān)聯(lián)是否成功,都需要將內存中的數據備份到外部存儲系統中。 當任務(wù)重啟時(shí),可以從外部存儲系統恢復內存數據,保證數據不丟失。 因為重啟時(shí),任務(wù)繼續運行,不會(huì )重新運行之前的數據。
另外,訂單記錄的變更可能會(huì )發(fā)生多次(比如訂單的多個(gè)字段被多次更新)。 這種情況下,需要根據訂單ID進(jìn)行去重,避免A表和B表多次關(guān)聯(lián)成功; 否則輸出到下游會(huì )有多條記錄,這樣得到的數據會(huì )重復。
(1) 為什么要用維表
數據未及時(shí)準備好
無(wú)法準確獲取全量最新數據
資料亂序
(2)維表的使用形式
滿(mǎn)載
增量加載
5.3 大促特色及保障
毫秒延遲
洪峰明顯
高安全性
(1) 如何優(yōu)化實(shí)時(shí)任務(wù)
獨享資源與共享資源策略
合理選擇緩存機制,盡量減少讀寫(xiě)庫的次數
合并計算單元以降低拓撲級別
共享內存對象以避免字符復制
平衡高吞吐量和低延遲
(2) 如何保證數據鏈路
進(jìn)行多機房容災和異地容災。下圖是多機房容災示意圖
(3) 如何進(jìn)行壓力測試
數據壓測:數據壓測主要是洪流存儲壓測,就是把數小時(shí)甚至幾天的數據累積起來(lái),在某個(gè)時(shí)刻全部釋放。
產(chǎn)品壓力測試:
?、?產(chǎn)品本身的壓力測試
采集大屏服務(wù)器所有讀操作的url,通過(guò)壓測平臺進(jìn)行壓測流量回放,按照QPS目標:500次/秒進(jìn)行壓測。 在壓測過(guò)程中,迭代優(yōu)化服務(wù)器性能,提升大屏應用的數據處理性能。
?、?前端頁(yè)面穩定性測試
在瀏覽器中打開(kāi)大屏頁(yè)面,進(jìn)行8-24小時(shí)的前端頁(yè)面穩定性測試。 監控大屏前端JS對客戶(hù)端瀏覽器的內存和CPU消耗,檢測并修復前端JS內存泄露等問(wèn)題,提高前端頁(yè)面的穩定性。
解決方案:目前網(wǎng)站怎么優(yōu)化才好?淺析當下網(wǎng)站優(yōu)化的新思維新方法
網(wǎng)站優(yōu)化在這個(gè)行業(yè)由來(lái)已久,許多優(yōu)化方法已經(jīng)約定俗成,并被反復采納和使用。 不得不說(shuō),搜索引擎的算法日新月異,用舊的概念和方法做優(yōu)化可能有點(diǎn)偏。 需要一些新思路和新方法。 這些東西需要長(cháng)期觀(guān)察和總結最新的優(yōu)質(zhì)站點(diǎn)。
1、不要老是傳統的企業(yè)網(wǎng)站。 營(yíng)銷(xiāo)網(wǎng)站更受搜索引擎歡迎。
傳統的網(wǎng)站模式千篇一律,缺乏新意,造成了人們的視覺(jué)疲勞。 一個(gè)營(yíng)銷(xiāo)網(wǎng)站,利用適當的圖文,直觀(guān)地展示產(chǎn)品的特點(diǎn)和優(yōu)勢,才能吸引大家的眼球。

2、網(wǎng)站內部頁(yè)面細節需要更新,內部鏈接網(wǎng)絡(luò )要逐步編制。
嘗試閱讀新聞列表頁(yè)面上的部分內容介紹。 以往的企業(yè)網(wǎng)站大多直接展示新聞標題列表; 公司簡(jiǎn)介和聯(lián)系我們頁(yè)面。 側邊欄最好設置新聞推薦等一些欄目,避免內鏈太少; 盡量在商品詳情頁(yè)的側邊欄展示一些商品推薦,增加商品的豐富度; 在新聞詳情頁(yè)下,最好設置相關(guān)閱讀等,增加文章的連貫性。 總而言之,內部?jì)热輵摼幊删W(wǎng)絡(luò )。
3、網(wǎng)站關(guān)鍵詞不一定越少越好。
很多人有一個(gè)誤區,認為關(guān)鍵詞設置的越少,網(wǎng)站賦予這個(gè)關(guān)鍵詞的權重越高,這個(gè)詞越容易出現。 有一定的道理,但這種現象在實(shí)際操作中并不明顯。 關(guān)鍵詞設置要遵循的原則是關(guān)鍵詞一定要有相關(guān)性,盡量多設置,十幾個(gè)也可以。 那么文章的信息量就盡可能的大,質(zhì)量就盡可能的高,體現出這些關(guān)鍵詞的密度。 關(guān)鍵詞會(huì )一個(gè)接一個(gè)的出現,帶動(dòng)一個(gè)接一個(gè),互相影響,更好的達到優(yōu)化效果。

4.外鏈作用不大,反鏈卻很有用。
外鏈現在是一個(gè)輔助功能,優(yōu)質(zhì)的外鏈平臺越來(lái)越少,所以做好內鏈顯得更為重要。 盡可能多做高質(zhì)量的友情鏈接,對網(wǎng)站是非常有利的。
5、優(yōu)質(zhì)的內鏈和流量起到核心作用。
內鏈怎么做,首先內容一定要高質(zhì)量,盡量偽原創(chuàng )和原創(chuàng ),即使是粘貼復制,也盡量插入一些圖片修改一下。 一天四五篇新聞是正確的做法。 一個(gè)制作精良的網(wǎng)站每天必須有四篇新聞文章。 無(wú)論你多么原創(chuàng ),它都是無(wú)用的。 流量不用多說(shuō),正規的引流必不可少。
優(yōu)化的解決方案:Openresty+Lua+Kafka實(shí)現日志實(shí)時(shí)采集
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 246 次瀏覽 ? 2022-12-17 01:33
發(fā)表于 2022 年 6 月 20 日,由 admin
在很多數據采集場(chǎng)景中,Flume是一款高性能的采集日志工具,相信大家都有所了解。許多人認為 Flume 是一個(gè)組件。他們中的大多數人會(huì )想到 Flume 和 Kafka 的組合來(lái)進(jìn)行日志記錄采集。該方案具有高性能、高吞吐量、數據可靠性等諸多優(yōu)點(diǎn)。但是如果我們需要實(shí)時(shí)的采集日志,這顯然不是一個(gè)好的方案。原因如下:
目前,Flume 可以支持實(shí)時(shí)監控某個(gè)目錄下的數據文件。一旦目錄中的文件 采集 完成,它將被標記為完成標志。如果以后這個(gè)文件中有更多的數據,Flume 將不會(huì )被檢測到。
所以,我們更多的是用這個(gè)方案來(lái)計時(shí)采集,只要有新的數據目錄生成,我們就會(huì )采集這個(gè)目錄下的數據文件。
那么這篇文章就給大家介紹一下基于Openresty+Lua+Kafka的日志實(shí)時(shí)采集。
很多時(shí)候,我們需要對用戶(hù)的埋點(diǎn)數據進(jìn)行一個(gè)實(shí)時(shí)的采集,然后利用這些數據對用戶(hù)的行為做一些實(shí)時(shí)的分析。所以,當然,第一步是弄清楚如何采集實(shí)時(shí)數據。
我們這里采用的方案是Openresty+Lua+Kafka。
那么什么是 Openresty?這是官方報價(jià):
OpenResty 是一個(gè)基于 Nginx 和 Lua 的高性能 Web 平臺,集成了大量?jì)?yōu)秀的 Lua 庫、第三方模塊及其大部分依賴(lài)。用于方便地構建能夠處理超高并發(fā)和高擴展性的動(dòng)態(tài)Web應用程序、Web服務(wù)和動(dòng)態(tài)網(wǎng)關(guān)。
OpenResty 通過(guò)匯集各種精心設計的 Nginx 模塊,有效地將 Nginx 變成一個(gè)強大的通用 Web 應用平臺。這樣,Web開(kāi)發(fā)人員和系統工程師就可以使用Lu腳本語(yǔ)言調動(dòng)Nginx支持的各種C和Lua模塊,快速構建一個(gè)能夠處理10K甚至1000多個(gè)單機并發(fā)連接的高性能Web應用系統。
OpenResty 的目標是讓你的 web 服務(wù)直接運行在 Nginx 服務(wù)內部,充分利用 Nginx 的非阻塞 I/O 模型,不僅針對 HTTP 客戶(hù)端請求,甚至針對遠程后端,如 MySQL、PostgreSQL、Memcached 和Redis等均以一致的高性能響應。
簡(jiǎn)單的說(shuō),就是將客戶(hù)端的請求(本文指的是用戶(hù)的行為日志)通過(guò)Nginx投遞到我們指定的地方(Kafka),而為了實(shí)現這個(gè)需求,我們使用了Lua腳本,因為Openresty封裝了各種Lua模塊已經(jīng)安裝好,其中之一就是對Kafka模塊進(jìn)行分包。我們只需要寫(xiě)一個(gè)簡(jiǎn)單的腳本,將用戶(hù)的數據通過(guò)Nginx轉發(fā)給Kafka,方便后面消費數據。
下面是一張架構圖供大家理解:
這里簡(jiǎn)單總結一下使用Openresty+Lua+Kafka的優(yōu)勢:
1.支持多種業(yè)務(wù)數據,不同的業(yè)務(wù)數據,只需要配置不同的Lua腳本,就可以將不同的業(yè)務(wù)數據發(fā)送到Kafka的不同主題。
2、對用戶(hù)觸發(fā)的埋點(diǎn)數據進(jìn)行實(shí)時(shí)采集
3、高可靠的集群,由于Openresty是基于Nginx的,其集群具有非常高的性能和穩定性。
4.高并發(fā)。與tomcat、apache等web服務(wù)器相比,Nginx的并發(fā)度遠高于其他兩者。一般情況下,處理幾萬(wàn)并發(fā)并不難。
那我們就實(shí)踐一下吧。
Openresty安裝
本例采用單機部署形式。單機部署成功后,集群搭建和單機一樣,只是在不同的機器上執行相同的步驟。
注:本實(shí)驗基于centos7.0操作系統
1、下載Openresty依賴(lài):
yum install readline-devel pcre-devel openssl-devel gcc
2.編譯安裝Openresty:
#1.安裝openresty:
mkdir /opt/software
mkdir /opt/module
cd /opt/software/ # 安裝文件所在目錄
wget https://openresty.org/download ... ar.gz
tar -xzf openresty-1.9.7.4.tar.gz -C /opt/module/
cd /opt/module/openresty-1.9.7.4
#2.配置:
# 指定目錄為/opt/openresty,默認在/usr/local。
<p>
./configure --prefix=/opt/openresty \
--with-luajit \
--without-http_redis2_module \
--with-http_iconv_module
make
make install
</p>
3.安裝lua-resty-kafka
因為我們需要通過(guò)nginx+lua腳本將數據轉發(fā)給Kafka,所以在編寫(xiě)lua腳本的時(shí)候需要用到lua模塊中對Kafka的一些依賴(lài)。
#下載lua-resty-kafka:
cd /opt/software/
wget https://github.com/doujiang24/ ... r.zip
unzip master.zip -d /opt/module/
#拷貝kafka相關(guān)依賴(lài)腳本到openresty
cp -rf /opt/module/lua-resty-kafka-master/lib/resty/kafka/ /opt/openresty/lualib/resty/
注:由于大家都熟悉kafka,這里就不介紹它的安裝了。
Openresty安裝完成后,目錄結構如下:
drwxr-xr-x 2 root root 4096 Mar 24 14:26 bin
drwxr-xr-x 6 root root 4096 Mar 24 14:26 luajit
drwxr-xr-x 7 root root 4096 Mar 24 14:29 lualib
drwxr-xr-x 12 root root 4096 Mar 24 14:40 nginx
4.配置文件
編輯/opt/openresty/nginx/conf/nginx.conf
user nginx; #Linux的用戶(hù)
worker_processes auto;
worker_rlimit_nofile 100000;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
events {
worker_connections 102400;
multi_accept on;
use epoll;
http {
include mime.types;
default_type application/octet-stream;
<p>
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
resolver 8.8.8.8;
#resolver 127.0.0.1 valid=3600s;
sendfile on;
keepalive_timeout 65;
underscores_in_headers on;
gzip on;
include /opt/openresty/nginx/conf/conf.d/common.conf; #common.conf這個(gè)文件名字可自定義
}</p>
編輯/opt/openresty/nginx/conf/conf.d/common.conf
##api
lua_package_path "/opt/openresty/lualib/resty/kafka/?.lua;;";
lua_package_cpath "/opt/openresty/lualib/?.so;;";
lua_shared_dict ngx_cache 128m; # cache
lua_shared_dict cache_lock 100k; # lock for cache
server {
listen 8887; #監聽(tīng)端口
server_name 192.168.3.215; #埋點(diǎn)日志的ip地址或域名,多個(gè)域名之間用空格分開(kāi)
root html; #root指令用于指定虛擬主機的網(wǎng)頁(yè)根目錄,這個(gè)目錄可以是相對路徑,也可以是絕對路徑。
lua_need_request_body on; #打開(kāi)獲取消息體的開(kāi)關(guān),以便能獲取到消息體
access_log /var/log/nginx/message.access.log main;
error_log /var/log/nginx/message.error.log notice;
location = /lzp/message {
lua_code_cache on;
charset utf-8;
default_type 'application/json';
content_by_lua_file "/opt/openresty/nginx/lua/testMessage_kafka.lua";#引用的lua腳本
}
}
編輯/opt/openresty/nginx/lua/testMessage_kafka.lua
#創(chuàng )建目錄mkdir /opt/openresty/nginx/lua/
vim /opt/openresty/nginx/lua/testMessage_kafka.lua
#編輯內存如下:
解決方案:【ROS實(shí)時(shí)采集Android的圖像和IMU數據】的更多相關(guān)文章
基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據的性能測試
基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據通過(guò):授予客戶(hù)實(shí)現功能測試環(huán)境環(huán)境搭建使用前提使用方法運行程序效果展示無(wú)需在被監控主機上安裝代理即可實(shí)現功能,一鍵配對Linux遠程服務(wù)器對不同主機進(jìn)行性能監控。性能數據采集命令,并實(shí)時(shí)展示支持跨堡壘機采集實(shí)時(shí)性能數據(注意:定制開(kāi)發(fā),不通用)支持docker容器(因為程序是從docker容器中實(shí)現獲取性能的內部數據,所以目前只支持CPU、內存、I/O)使用前提可以是... 查看全部
優(yōu)化的解決方案:Openresty+Lua+Kafka實(shí)現日志實(shí)時(shí)采集
發(fā)表于 2022 年 6 月 20 日,由 admin
在很多數據采集場(chǎng)景中,Flume是一款高性能的采集日志工具,相信大家都有所了解。許多人認為 Flume 是一個(gè)組件。他們中的大多數人會(huì )想到 Flume 和 Kafka 的組合來(lái)進(jìn)行日志記錄采集。該方案具有高性能、高吞吐量、數據可靠性等諸多優(yōu)點(diǎn)。但是如果我們需要實(shí)時(shí)的采集日志,這顯然不是一個(gè)好的方案。原因如下:
目前,Flume 可以支持實(shí)時(shí)監控某個(gè)目錄下的數據文件。一旦目錄中的文件 采集 完成,它將被標記為完成標志。如果以后這個(gè)文件中有更多的數據,Flume 將不會(huì )被檢測到。
所以,我們更多的是用這個(gè)方案來(lái)計時(shí)采集,只要有新的數據目錄生成,我們就會(huì )采集這個(gè)目錄下的數據文件。
那么這篇文章就給大家介紹一下基于Openresty+Lua+Kafka的日志實(shí)時(shí)采集。
很多時(shí)候,我們需要對用戶(hù)的埋點(diǎn)數據進(jìn)行一個(gè)實(shí)時(shí)的采集,然后利用這些數據對用戶(hù)的行為做一些實(shí)時(shí)的分析。所以,當然,第一步是弄清楚如何采集實(shí)時(shí)數據。
我們這里采用的方案是Openresty+Lua+Kafka。
那么什么是 Openresty?這是官方報價(jià):
OpenResty 是一個(gè)基于 Nginx 和 Lua 的高性能 Web 平臺,集成了大量?jì)?yōu)秀的 Lua 庫、第三方模塊及其大部分依賴(lài)。用于方便地構建能夠處理超高并發(fā)和高擴展性的動(dòng)態(tài)Web應用程序、Web服務(wù)和動(dòng)態(tài)網(wǎng)關(guān)。
OpenResty 通過(guò)匯集各種精心設計的 Nginx 模塊,有效地將 Nginx 變成一個(gè)強大的通用 Web 應用平臺。這樣,Web開(kāi)發(fā)人員和系統工程師就可以使用Lu腳本語(yǔ)言調動(dòng)Nginx支持的各種C和Lua模塊,快速構建一個(gè)能夠處理10K甚至1000多個(gè)單機并發(fā)連接的高性能Web應用系統。
OpenResty 的目標是讓你的 web 服務(wù)直接運行在 Nginx 服務(wù)內部,充分利用 Nginx 的非阻塞 I/O 模型,不僅針對 HTTP 客戶(hù)端請求,甚至針對遠程后端,如 MySQL、PostgreSQL、Memcached 和Redis等均以一致的高性能響應。
簡(jiǎn)單的說(shuō),就是將客戶(hù)端的請求(本文指的是用戶(hù)的行為日志)通過(guò)Nginx投遞到我們指定的地方(Kafka),而為了實(shí)現這個(gè)需求,我們使用了Lua腳本,因為Openresty封裝了各種Lua模塊已經(jīng)安裝好,其中之一就是對Kafka模塊進(jìn)行分包。我們只需要寫(xiě)一個(gè)簡(jiǎn)單的腳本,將用戶(hù)的數據通過(guò)Nginx轉發(fā)給Kafka,方便后面消費數據。
下面是一張架構圖供大家理解:
這里簡(jiǎn)單總結一下使用Openresty+Lua+Kafka的優(yōu)勢:
1.支持多種業(yè)務(wù)數據,不同的業(yè)務(wù)數據,只需要配置不同的Lua腳本,就可以將不同的業(yè)務(wù)數據發(fā)送到Kafka的不同主題。
2、對用戶(hù)觸發(fā)的埋點(diǎn)數據進(jìn)行實(shí)時(shí)采集
3、高可靠的集群,由于Openresty是基于Nginx的,其集群具有非常高的性能和穩定性。
4.高并發(fā)。與tomcat、apache等web服務(wù)器相比,Nginx的并發(fā)度遠高于其他兩者。一般情況下,處理幾萬(wàn)并發(fā)并不難。
那我們就實(shí)踐一下吧。
Openresty安裝
本例采用單機部署形式。單機部署成功后,集群搭建和單機一樣,只是在不同的機器上執行相同的步驟。
注:本實(shí)驗基于centos7.0操作系統
1、下載Openresty依賴(lài):
yum install readline-devel pcre-devel openssl-devel gcc
2.編譯安裝Openresty:
#1.安裝openresty:
mkdir /opt/software
mkdir /opt/module
cd /opt/software/ # 安裝文件所在目錄
wget https://openresty.org/download ... ar.gz
tar -xzf openresty-1.9.7.4.tar.gz -C /opt/module/
cd /opt/module/openresty-1.9.7.4
#2.配置:
# 指定目錄為/opt/openresty,默認在/usr/local。
<p>

./configure --prefix=/opt/openresty \
--with-luajit \
--without-http_redis2_module \
--with-http_iconv_module
make
make install
</p>
3.安裝lua-resty-kafka
因為我們需要通過(guò)nginx+lua腳本將數據轉發(fā)給Kafka,所以在編寫(xiě)lua腳本的時(shí)候需要用到lua模塊中對Kafka的一些依賴(lài)。
#下載lua-resty-kafka:
cd /opt/software/
wget https://github.com/doujiang24/ ... r.zip
unzip master.zip -d /opt/module/
#拷貝kafka相關(guān)依賴(lài)腳本到openresty
cp -rf /opt/module/lua-resty-kafka-master/lib/resty/kafka/ /opt/openresty/lualib/resty/
注:由于大家都熟悉kafka,這里就不介紹它的安裝了。
Openresty安裝完成后,目錄結構如下:
drwxr-xr-x 2 root root 4096 Mar 24 14:26 bin
drwxr-xr-x 6 root root 4096 Mar 24 14:26 luajit
drwxr-xr-x 7 root root 4096 Mar 24 14:29 lualib
drwxr-xr-x 12 root root 4096 Mar 24 14:40 nginx
4.配置文件
編輯/opt/openresty/nginx/conf/nginx.conf
user nginx; #Linux的用戶(hù)
worker_processes auto;
worker_rlimit_nofile 100000;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
events {
worker_connections 102400;
multi_accept on;
use epoll;
http {
include mime.types;
default_type application/octet-stream;
<p>

log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
resolver 8.8.8.8;
#resolver 127.0.0.1 valid=3600s;
sendfile on;
keepalive_timeout 65;
underscores_in_headers on;
gzip on;
include /opt/openresty/nginx/conf/conf.d/common.conf; #common.conf這個(gè)文件名字可自定義
}</p>
編輯/opt/openresty/nginx/conf/conf.d/common.conf
##api
lua_package_path "/opt/openresty/lualib/resty/kafka/?.lua;;";
lua_package_cpath "/opt/openresty/lualib/?.so;;";
lua_shared_dict ngx_cache 128m; # cache
lua_shared_dict cache_lock 100k; # lock for cache
server {
listen 8887; #監聽(tīng)端口
server_name 192.168.3.215; #埋點(diǎn)日志的ip地址或域名,多個(gè)域名之間用空格分開(kāi)
root html; #root指令用于指定虛擬主機的網(wǎng)頁(yè)根目錄,這個(gè)目錄可以是相對路徑,也可以是絕對路徑。
lua_need_request_body on; #打開(kāi)獲取消息體的開(kāi)關(guān),以便能獲取到消息體
access_log /var/log/nginx/message.access.log main;
error_log /var/log/nginx/message.error.log notice;
location = /lzp/message {
lua_code_cache on;
charset utf-8;
default_type 'application/json';
content_by_lua_file "/opt/openresty/nginx/lua/testMessage_kafka.lua";#引用的lua腳本
}
}
編輯/opt/openresty/nginx/lua/testMessage_kafka.lua
#創(chuàng )建目錄mkdir /opt/openresty/nginx/lua/
vim /opt/openresty/nginx/lua/testMessage_kafka.lua
#編輯內存如下:
解決方案:【ROS實(shí)時(shí)采集Android的圖像和IMU數據】的更多相關(guān)文章

基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據的性能測試

基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據通過(guò):授予客戶(hù)實(shí)現功能測試環(huán)境環(huán)境搭建使用前提使用方法運行程序效果展示無(wú)需在被監控主機上安裝代理即可實(shí)現功能,一鍵配對Linux遠程服務(wù)器對不同主機進(jìn)行性能監控。性能數據采集命令,并實(shí)時(shí)展示支持跨堡壘機采集實(shí)時(shí)性能數據(注意:定制開(kāi)發(fā),不通用)支持docker容器(因為程序是從docker容器中實(shí)現獲取性能的內部數據,所以目前只支持CPU、內存、I/O)使用前提可以是...
最新版:EditorTools2中文版 v2.6.19 電腦版
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 71 次瀏覽 ? 2022-12-17 01:25
EditorTools2免費版是一款專(zhuān)業(yè)的網(wǎng)頁(yè)助手軟件。EditorTools2中文版不僅綠色小巧,而且完全免費。還支持免安裝、免激活、免注冊等繁瑣的安裝步驟,讓大家一鍵下載打開(kāi)即可在線(xiàn)使用。它具有優(yōu)采云采集器、免發(fā)布、易用、穩定、低功耗等亮點(diǎn)。更重要的是,運行時(shí)無(wú)需人工看守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,全天候不間斷為您提供內容更新。
EditorTools2免費版提供多種智能采集解決方案,全面保障您的網(wǎng)站優(yōu)質(zhì)及時(shí)的內容更新,滿(mǎn)足長(cháng)期運行需求,讓您免于繁重的負擔and boring 網(wǎng)站從更新工作中解脫出來(lái),如此簡(jiǎn)單、高效、實(shí)用。并且支持信息的自由組合,是一款通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新內容的實(shí)用電腦軟件。
EditorTools2免費版的特點(diǎn)
1.【自動(dòng)無(wú)人值守】
無(wú)需人工值守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,實(shí)時(shí)高效采集,全天候為您提供內容更新。滿(mǎn)足長(cháng)期作業(yè)需求,讓您從繁重的工作中解脫出來(lái)
2、【應用廣泛】
最全能的采集軟件,支持任何類(lèi)型的網(wǎng)站采集,應用率高達99.9%,支持發(fā)布到所有類(lèi)型的網(wǎng)站程序,甚至采集本地文件,無(wú)借口釋放
3、【信息隨心】
支持信息的自由組合,通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新的內容
4.【任意格式文件下載】
無(wú)論靜態(tài)還是動(dòng)態(tài),無(wú)論是圖片、音樂(lè )、電影、軟件,還是PDF、WORD文檔甚至種子文件,只要你想要
5.【偽原創(chuàng )】
高速同義詞替換,多詞隨機替換,段落隨機排序,助力內容SEO
6. [無(wú)限多級頁(yè)面采集]
從支持多級目錄開(kāi)始,無(wú)論是縱向多層信息頁(yè)面,還是平行方向的多個(gè)內容頁(yè)面,亦或是AJAX調用頁(yè)面,都讓你輕松采集
7.【自由擴展】
開(kāi)放接口方式,免費二次開(kāi)發(fā),自定義任意功能,實(shí)現所有需求
軟件功能
1、設定好計劃后,可24小時(shí)自動(dòng)工作,無(wú)需人工干預
2、與網(wǎng)站分離,通過(guò)獨立制作的接口可以支持任何網(wǎng)站或數據庫
3、靈活強大的采集規則不僅僅是采集文章,采集任何類(lèi)型的信息
4、體積小、功耗低、穩定性好非常適合運行在服務(wù)器上
5.所有規則均可導入導出,資源靈活
6.使用FTP上傳文件,穩定安全
7.下載上傳支持斷點(diǎn)續傳
8.高速 偽原創(chuàng )
9. 可以選擇倒序、順序、隨機采集文章
10.支持自動(dòng)列出網(wǎng)址
11、支持采集為網(wǎng)站,其數據分布在多層頁(yè)面
12.自由設置采集數據項,每個(gè)數據項可以單獨篩選排序
13.支持分頁(yè)內容采集
14.支持任意格式和類(lèi)型的文件(包括圖片、視頻)下載
15.可以破解防盜鏈文件
16.支持動(dòng)態(tài)文件URL解析
17. 支持采集 用于需要登錄訪(fǎng)問(wèn)的網(wǎng)頁(yè)
18.可以設置關(guān)鍵詞采集
19.可設置敏感詞防止采集
20.可以設置圖片水印
21、支持發(fā)布帶回復的文章,可廣泛應用于論壇、博客等項目
22、與采集數據分離的發(fā)布參數項可以自由對應采集數據或預設值,大大增強發(fā)布規則的復用性
23.支持隨機選擇發(fā)布賬號
24.支持任何已發(fā)布項目的語(yǔ)言翻譯
25.支持轉碼和UBB碼
26.可選擇文件上傳自動(dòng)創(chuàng )建年月日目錄
27.模擬發(fā)布支持網(wǎng)站無(wú)法安裝界面的發(fā)布操作
28.程序能正常運行
29.防止網(wǎng)絡(luò )運營(yíng)商劫持HTTP功能
30.單個(gè)采集釋放可以手動(dòng)執行
31、詳細的工作流程監控和信息反饋,讓您快速了解工作狀態(tài)
EditorTools2免費版教程
1. [使用登記](méi)
1.通過(guò)注冊獲得ET的使用授權;
打開(kāi)主菜單-授權注冊,填寫(xiě)您在ET官方網(wǎng)站(非論壇)注冊的有效賬號,注冊使用即可獲得ET授權
2.【系統設置】
打開(kāi)主菜單-系統-基本設置,進(jìn)行各項系統設置,如圖
1、設置工作參數;
根據需要設置工作參數,見(jiàn)圖
?、? 開(kāi)機自動(dòng)運行ET:?jiǎn)?dòng)電腦進(jìn)入系統后,ET程序會(huì )自動(dòng)運行;
?、? ET啟動(dòng)后自動(dòng)工作:ET啟動(dòng)運行后,將自動(dòng)執行上次使用ET時(shí)選擇的工作計劃。只有啟用此項,才會(huì )自動(dòng)保存當前選中的工作計劃;
?、? 啟動(dòng)后最小化:ET啟動(dòng)后,隱藏主窗口,只顯示托盤(pán)圖標;
?、? Ignore blanks at the beginning and end of the rule:?jiǎn)⒂么隧椇?,采集配置中的每條規則都會(huì )自動(dòng)去掉開(kāi)頭和結尾的空格、回車(chē)、換行等空白字符,從而避免用戶(hù)輸入較多空格或換行導致規則分析失??;如果用戶(hù)需要受益
?、? 使用空格或換行符確定規則的起止邊界,請取消勾選;
?、? 方案執行間隔時(shí)間:當執行自動(dòng)工作并選擇多個(gè)方案時(shí),當一個(gè)方案的當前列表采集完成后,間隔多長(cháng)時(shí)間將采集替換為下一個(gè)方案;
?、? 訪(fǎng)問(wèn)網(wǎng)絡(luò )超時(shí)時(shí)間:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )無(wú)響應時(shí)強制斷開(kāi)連接的時(shí)間;
?、? 網(wǎng)絡(luò )重試次數:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )失敗自動(dòng)重試的次數,如采集網(wǎng)頁(yè)、下載文件、FTP上傳等,這是2.2版本新增的功能;
?、? 訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗后自動(dòng)重啟ET:設置訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗一定次數后自動(dòng)重啟ET,解決一些可能導致網(wǎng)絡(luò )擁堵無(wú)法繼續正常工作的問(wèn)題;該功能僅在自動(dòng)工作時(shí)生效,停止自動(dòng)工作失敗計數將被清零,重試訪(fǎng)問(wèn)不計入;這是2.3.7版本的新特性;
2.設置代理
如果通過(guò)代理上網(wǎng),請設置訪(fǎng)問(wèn)網(wǎng)頁(yè)的代理參數,如圖
Only for 采集:勾選此項,代理設置只會(huì )對采集網(wǎng)頁(yè)生效,發(fā)布時(shí)不會(huì )使用代理。這是2.3.8版本的新功能
3.設置劫持特征碼
很多地區的電信寬帶用戶(hù)在上網(wǎng)時(shí)會(huì )強制將訪(fǎng)問(wèn)信息替換成訪(fǎng)問(wèn)信息中的一些代碼,這樣用戶(hù)只能通過(guò)代碼中的框框查看自己原本想訪(fǎng)問(wèn)的網(wǎng)頁(yè),這通常是用于顯示電信廣告或執行其他隱蔽操作,這種行為稱(chēng)為劫持瀏覽器;出現這種情況時(shí),ET的采集源代碼只能獲取這些劫持代碼,無(wú)法獲取采集網(wǎng)頁(yè)源代碼。通過(guò)設置這些劫持代碼的特征字符串,ET會(huì )嘗試突破劫持訪(fǎng)問(wèn)真實(shí)的網(wǎng)頁(yè)源代碼,并且最多可以重試訪(fǎng)問(wèn)URL 5次
4.設置用戶(hù)代理
網(wǎng)站通過(guò)userAgent判斷當前用戶(hù)使用的是什么瀏覽器,并根據瀏覽器可以支持的功能提供相應的功能。瀏覽器在訪(fǎng)問(wèn)網(wǎng)頁(yè)時(shí),通常會(huì )發(fā)送一個(gè)標識字符串來(lái)告訴網(wǎng)站這是什么瀏覽器軟件,而我們訪(fǎng)問(wèn)的部分網(wǎng)站會(huì )對UserAgent進(jìn)行限制,我們可以在基本設置中修改UserAgent ,也可以點(diǎn)擊'Get Local UserAgent'按鈕獲取本地IE默認UserAgent
5.設置支持的語(yǔ)言
采集一些網(wǎng)頁(yè),網(wǎng)站可能會(huì )勾選支持的語(yǔ)言,用戶(hù)可以在這里調整。
6.鎖定設置
打開(kāi)主菜單-系統-鎖設置,如圖:
該函數用于設置打開(kāi)每個(gè)配置窗口時(shí)的密碼。設置鎖定密碼后,使用菜單鎖定功能,防止用戶(hù)離開(kāi)計算機后,其他人無(wú)法訪(fǎng)問(wèn)和操作各項配置。
3.【前臺操作】
1.【選擇工作計劃】
工作計劃包括從源頭獲取原創(chuàng )信息、信息處理、最終發(fā)布到目標網(wǎng)站等一系列工作的所有設置說(shuō)明。它是 ET 自動(dòng) 采集 工作的指揮官。制定好后,我們在需要的方案(方案制定見(jiàn)用戶(hù)手冊-設置)后,就可以在主窗口選擇工作方案,開(kāi)始采集工作。
?、?了解節目區域;
主窗口左上角的樹(shù)狀目錄區為方案區,點(diǎn)擊鼠標右鍵彈出操作菜單
?、? 檢查選項;
點(diǎn)擊程序名前的選擇框,選擇要執行的程序,可以選擇多個(gè),
如果選擇的場(chǎng)景缺少關(guān)鍵配置,會(huì )提示并取消勾選
ET在工作時(shí),會(huì )先從當前的焦點(diǎn)方案開(kāi)始執行,即藍色高亮的方案,見(jiàn)圖4中的'網(wǎng)站-discuz 6.0 (with reply)'
多個(gè)選定的程序將循環(huán)執行。
在主窗口右上角的文章列表區,會(huì )顯示選中的焦點(diǎn)項目的待定文章。
右擊程序名稱(chēng),彈出菜單如圖
點(diǎn)擊Edit Scheme進(jìn)入方案編輯窗口
雙擊方案名稱(chēng),直接進(jìn)入方案編輯窗口。
2.自動(dòng)工作
選擇好要執行的工作計劃后,點(diǎn)擊主窗口左下方的“自動(dòng)”按鈕即可開(kāi)始全自動(dòng)工作。從此,用戶(hù)可以扔掉鼠標鍵盤(pán)和繁瑣的網(wǎng)站更新,和朋友出去玩,網(wǎng)站有自己的ET默默為你采集更新。要停止自動(dòng)工作,請單擊“停止”按鈕;
ET支持命令行啟動(dòng),參數/auto可以啟動(dòng)自動(dòng)工作,命令行使用示例:d:\editortools.exe /auto
3.手工作業(yè)
在調試解決方案時(shí),通常使用采集手動(dòng)操作。
?、?、采集目錄;
點(diǎn)擊主窗口左下方的'采集Category'按鈕,ET會(huì )對當前選中的焦點(diǎn)方案執行directory采集動(dòng)作,如果沒(méi)有焦點(diǎn)方案則依次執行
采集目錄信息顯示在主窗口右上角的文章列表區。
注意:修改計劃的采集規則時(shí),未發(fā)布的文章會(huì )自動(dòng)清除,包括發(fā)送失敗的文章,防止用戶(hù)繼續使用采集 的錯誤 文章 條目
?、?、處理文章;
當文章列表區有文章需要處理時(shí),點(diǎn)擊主窗口左下方的‘處理文章’按鈕,文章中的第一項文章 列表區域將按順序處理 Pending 文章execution采集action
文章 加工過(guò)程中,工作記錄會(huì )顯示在主窗口右下方的信息區,
加工完成后,文章列表區對應條目會(huì )顯示加工狀態(tài)
?、? 另一種手動(dòng) 文章 方法
在文章列表區,雙擊一個(gè)文章條目將對文章執行采集動(dòng)作,無(wú)論文章是否已被處理或不是。
4. 了解文章列表區
主窗口右上角的表格區是文章列表區,顯示已執行計劃的pending 文章,
?、? 文章列表區各列說(shuō)明;
文章采集Title:這是采集規則得到的文章標題-列表分析規則,如果采集規則沒(méi)有設置解析title數據項規則,那么ET會(huì )使用這里的文章采集標題作為發(fā)布標題,文章采集標題可以更改,點(diǎn)擊標題后面的省略號按鈕即可進(jìn)入編輯狀態(tài)
Status - Send: 當此項的值為YES時(shí),表示這篇文章文章已經(jīng)發(fā)布成功
Status-Sensitive:當此項的值為YES時(shí),表示文章文本收錄敏感關(guān)鍵詞
Status-Error: 0表示沒(méi)有錯誤,其他錯誤碼含義參考相關(guān)主題
Status - Processing:勾選文章項表示已經(jīng)執行,可以點(diǎn)擊取消勾選使其再次執行
?、?、轉換顯示碼
右擊文章列表區,彈出編碼菜單
?、? 雙擊執行文章采集;
上一節提到,可以雙擊文章列表區的一個(gè)文章條目,對其執行采集;
?、?、瀏覽按鈕
點(diǎn)擊文章條目的瀏覽按鈕可以訪(fǎng)問(wèn)文章的網(wǎng)址,用于確認網(wǎng)址是否正確、查看網(wǎng)頁(yè)源代碼等。
5.認識信息欄
信息欄用于跟蹤執行過(guò)程,反饋各種信息。是了解ET工作情況,解決采集遇到問(wèn)題的重要工具。
?、? 工作記錄:
該欄記錄了ET每一步的工作過(guò)程和狀態(tài),包括目錄采集和文章處理兩部分。我們可以通過(guò)工作記錄知道采集執行是否正確完成。問(wèn)題是什么?當出現問(wèn)題時(shí),用戶(hù)可以根據信息欄中的提示和其他反饋內容,快速準確地找到故障原因并解決。
?、?、采集源碼:
該欄顯示采集頁(yè)面在執行過(guò)程中的采集列表頁(yè)、文章頁(yè)面、文章頁(yè)面等的源代碼。通過(guò)使用本專(zhuān)欄源碼,您可以輕松進(jìn)行規則測試,提供規則定制依據。
注意有些網(wǎng)站會(huì )根據不同的訪(fǎng)問(wèn)瀏覽器顯示不同的源碼,所以自定義ET的采集規則時(shí),以本欄源碼為準,例如采集為'SMF 1.1 .5'在規則示例中,通過(guò)IE訪(fǎng)問(wèn)的源代碼網(wǎng)站和通過(guò)采集器獲取的優(yōu)采云是不同的。
?、? 分析數據:
該欄目展示了文章過(guò)程中各個(gè)數據項的信息,從解析的原創(chuàng )代碼,到排序后的代碼,再到URL修正后的代碼。通過(guò)查看該欄目,用戶(hù)可以了解設置的數據項分析規則是否準確,排序組規則是否完善,最終信息是否符合您的要求。
例如:當工作記錄欄提示錯誤‘文數大于或小于發(fā)布設置’時(shí),我們可以查看該欄‘文’數據項,判斷是大于還是小于發(fā)布設置,無(wú)論是正常原因還是由于整理組設置不當,調整每一個(gè)設置。
?、?、發(fā)送代碼
該欄顯示ET向發(fā)布網(wǎng)站發(fā)送的數據,包括文章校驗部分和文章發(fā)布部分;
通過(guò)該欄信息,用戶(hù)可以通過(guò)一系列的分析和排序操作了解提交給發(fā)布網(wǎng)站的數據,從而查看其采集規則數據項和發(fā)布參數設置規則是正確的,完整的。
?、? 退貨信息
該欄顯示了ET向發(fā)布網(wǎng)站發(fā)送數據后發(fā)布網(wǎng)站的反饋,包括文章檢查反饋和文章發(fā)布反饋;
通過(guò)查看本專(zhuān)欄,我們可以清楚地看到采集進(jìn)程出錯的大部分原因。
某些接口返回錯誤信息時(shí),信息可能是HTML代碼。不熟悉 HTML 代碼的用戶(hù)很難閱讀。點(diǎn)擊WEB瀏覽按鈕,可以在操作系統默認的瀏覽器中方便地查看。
運行要求
一、【操作系統要求】
EditorTools是一款win32軟件,可運行于微軟簡(jiǎn)體中文版Windows xp/2000/2003/2008/vista/win7等操作系統環(huán)境。我們對軟件中的上述操作系統進(jìn)行了大量的測試和實(shí)地考察,確保EditorTools能夠在上述系統上安全、穩定地運行。
如果您選擇在非簡(jiǎn)體中文的Windows操作系統下運行ET,您可能會(huì )遇到界面顯示亂碼等問(wèn)題。你需要自己測試一下。通常安裝標準的簡(jiǎn)體中文字體庫(GB2312)即可解決。
2.【配套環(huán)境要求】
EditorTools2要求電腦有如下軟件環(huán)境
mdac 2.8 或更高版本(ADO 數據庫驅動(dòng)程序)
注冊scrrun.dll(用于讀寫(xiě)腳本和文本文件)
注冊vbscript.dll(VBScript腳本相關(guān)支持文件)
免費的:navicat premium中文免費版功能
navicat premium 中文免費版是一款非常強大的數據管理工具,可以有很多功能鏈接到各種數據庫。它允許用戶(hù)存儲不同類(lèi)型的文件,如過(guò)程、事件、觸發(fā)器、視圖等,這將使用戶(hù)更容易使用它。
navicat premium中文免費版功能
1.無(wú)縫
數據可以無(wú)縫遷移,傳輸過(guò)程中可以同步,讓用戶(hù)享受無(wú)延遲的數據傳輸體驗。
2.查詢(xún)
它可以幫助用戶(hù)更好的查詢(xún)軟件中的信息,幫助用戶(hù)更好的編輯和創(chuàng )建,從而更快的生成代碼。
三、合作
讓用戶(hù)的連接設置、模型、查詢(xún)等東西同步到這個(gè)軟件的服務(wù)器上,方便用戶(hù)實(shí)時(shí)訪(fǎng)問(wèn)。
4.工具
提供了很多豐富的工具供用戶(hù)使用,讓用戶(hù)在查詢(xún)和使用數據的時(shí)候有一個(gè)更快的過(guò)程。
navicat premium中文免費版使用方法
1、打開(kāi)軟件后,選擇要連接的數據庫類(lèi)型,如圖。
2、然后設置連接名稱(chēng)等信息,輸入ip地址等信息。
3、完成后可以點(diǎn)擊鏈接測試按鈕測試是否正確。
4.雙擊左邊的鏈接,選擇一個(gè)數據庫,選擇一個(gè)表,可以看到所有的表信息。
5、可以在表信息中添加數據,修改數據等操作,然后記得保存。 查看全部
最新版:EditorTools2中文版 v2.6.19 電腦版
EditorTools2免費版是一款專(zhuān)業(yè)的網(wǎng)頁(yè)助手軟件。EditorTools2中文版不僅綠色小巧,而且完全免費。還支持免安裝、免激活、免注冊等繁瑣的安裝步驟,讓大家一鍵下載打開(kāi)即可在線(xiàn)使用。它具有優(yōu)采云采集器、免發(fā)布、易用、穩定、低功耗等亮點(diǎn)。更重要的是,運行時(shí)無(wú)需人工看守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,全天候不間斷為您提供內容更新。
EditorTools2免費版提供多種智能采集解決方案,全面保障您的網(wǎng)站優(yōu)質(zhì)及時(shí)的內容更新,滿(mǎn)足長(cháng)期運行需求,讓您免于繁重的負擔and boring 網(wǎng)站從更新工作中解脫出來(lái),如此簡(jiǎn)單、高效、實(shí)用。并且支持信息的自由組合,是一款通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新內容的實(shí)用電腦軟件。
EditorTools2免費版的特點(diǎn)
1.【自動(dòng)無(wú)人值守】
無(wú)需人工值守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,實(shí)時(shí)高效采集,全天候為您提供內容更新。滿(mǎn)足長(cháng)期作業(yè)需求,讓您從繁重的工作中解脫出來(lái)
2、【應用廣泛】
最全能的采集軟件,支持任何類(lèi)型的網(wǎng)站采集,應用率高達99.9%,支持發(fā)布到所有類(lèi)型的網(wǎng)站程序,甚至采集本地文件,無(wú)借口釋放
3、【信息隨心】
支持信息的自由組合,通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新的內容
4.【任意格式文件下載】
無(wú)論靜態(tài)還是動(dòng)態(tài),無(wú)論是圖片、音樂(lè )、電影、軟件,還是PDF、WORD文檔甚至種子文件,只要你想要
5.【偽原創(chuàng )】
高速同義詞替換,多詞隨機替換,段落隨機排序,助力內容SEO
6. [無(wú)限多級頁(yè)面采集]
從支持多級目錄開(kāi)始,無(wú)論是縱向多層信息頁(yè)面,還是平行方向的多個(gè)內容頁(yè)面,亦或是AJAX調用頁(yè)面,都讓你輕松采集
7.【自由擴展】
開(kāi)放接口方式,免費二次開(kāi)發(fā),自定義任意功能,實(shí)現所有需求
軟件功能
1、設定好計劃后,可24小時(shí)自動(dòng)工作,無(wú)需人工干預
2、與網(wǎng)站分離,通過(guò)獨立制作的接口可以支持任何網(wǎng)站或數據庫
3、靈活強大的采集規則不僅僅是采集文章,采集任何類(lèi)型的信息
4、體積小、功耗低、穩定性好非常適合運行在服務(wù)器上
5.所有規則均可導入導出,資源靈活
6.使用FTP上傳文件,穩定安全
7.下載上傳支持斷點(diǎn)續傳
8.高速 偽原創(chuàng )
9. 可以選擇倒序、順序、隨機采集文章
10.支持自動(dòng)列出網(wǎng)址
11、支持采集為網(wǎng)站,其數據分布在多層頁(yè)面
12.自由設置采集數據項,每個(gè)數據項可以單獨篩選排序
13.支持分頁(yè)內容采集
14.支持任意格式和類(lèi)型的文件(包括圖片、視頻)下載
15.可以破解防盜鏈文件
16.支持動(dòng)態(tài)文件URL解析
17. 支持采集 用于需要登錄訪(fǎng)問(wèn)的網(wǎng)頁(yè)
18.可以設置關(guān)鍵詞采集
19.可設置敏感詞防止采集
20.可以設置圖片水印
21、支持發(fā)布帶回復的文章,可廣泛應用于論壇、博客等項目
22、與采集數據分離的發(fā)布參數項可以自由對應采集數據或預設值,大大增強發(fā)布規則的復用性
23.支持隨機選擇發(fā)布賬號
24.支持任何已發(fā)布項目的語(yǔ)言翻譯
25.支持轉碼和UBB碼
26.可選擇文件上傳自動(dòng)創(chuàng )建年月日目錄
27.模擬發(fā)布支持網(wǎng)站無(wú)法安裝界面的發(fā)布操作
28.程序能正常運行
29.防止網(wǎng)絡(luò )運營(yíng)商劫持HTTP功能
30.單個(gè)采集釋放可以手動(dòng)執行
31、詳細的工作流程監控和信息反饋,讓您快速了解工作狀態(tài)
EditorTools2免費版教程
1. [使用登記](méi)
1.通過(guò)注冊獲得ET的使用授權;
打開(kāi)主菜單-授權注冊,填寫(xiě)您在ET官方網(wǎng)站(非論壇)注冊的有效賬號,注冊使用即可獲得ET授權

2.【系統設置】
打開(kāi)主菜單-系統-基本設置,進(jìn)行各項系統設置,如圖
1、設置工作參數;
根據需要設置工作參數,見(jiàn)圖
?、? 開(kāi)機自動(dòng)運行ET:?jiǎn)?dòng)電腦進(jìn)入系統后,ET程序會(huì )自動(dòng)運行;
?、? ET啟動(dòng)后自動(dòng)工作:ET啟動(dòng)運行后,將自動(dòng)執行上次使用ET時(shí)選擇的工作計劃。只有啟用此項,才會(huì )自動(dòng)保存當前選中的工作計劃;
?、? 啟動(dòng)后最小化:ET啟動(dòng)后,隱藏主窗口,只顯示托盤(pán)圖標;
?、? Ignore blanks at the beginning and end of the rule:?jiǎn)⒂么隧椇?,采集配置中的每條規則都會(huì )自動(dòng)去掉開(kāi)頭和結尾的空格、回車(chē)、換行等空白字符,從而避免用戶(hù)輸入較多空格或換行導致規則分析失??;如果用戶(hù)需要受益
?、? 使用空格或換行符確定規則的起止邊界,請取消勾選;
?、? 方案執行間隔時(shí)間:當執行自動(dòng)工作并選擇多個(gè)方案時(shí),當一個(gè)方案的當前列表采集完成后,間隔多長(cháng)時(shí)間將采集替換為下一個(gè)方案;
?、? 訪(fǎng)問(wèn)網(wǎng)絡(luò )超時(shí)時(shí)間:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )無(wú)響應時(shí)強制斷開(kāi)連接的時(shí)間;
?、? 網(wǎng)絡(luò )重試次數:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )失敗自動(dòng)重試的次數,如采集網(wǎng)頁(yè)、下載文件、FTP上傳等,這是2.2版本新增的功能;
?、? 訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗后自動(dòng)重啟ET:設置訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗一定次數后自動(dòng)重啟ET,解決一些可能導致網(wǎng)絡(luò )擁堵無(wú)法繼續正常工作的問(wèn)題;該功能僅在自動(dòng)工作時(shí)生效,停止自動(dòng)工作失敗計數將被清零,重試訪(fǎng)問(wèn)不計入;這是2.3.7版本的新特性;
2.設置代理
如果通過(guò)代理上網(wǎng),請設置訪(fǎng)問(wèn)網(wǎng)頁(yè)的代理參數,如圖
Only for 采集:勾選此項,代理設置只會(huì )對采集網(wǎng)頁(yè)生效,發(fā)布時(shí)不會(huì )使用代理。這是2.3.8版本的新功能
3.設置劫持特征碼
很多地區的電信寬帶用戶(hù)在上網(wǎng)時(shí)會(huì )強制將訪(fǎng)問(wèn)信息替換成訪(fǎng)問(wèn)信息中的一些代碼,這樣用戶(hù)只能通過(guò)代碼中的框框查看自己原本想訪(fǎng)問(wèn)的網(wǎng)頁(yè),這通常是用于顯示電信廣告或執行其他隱蔽操作,這種行為稱(chēng)為劫持瀏覽器;出現這種情況時(shí),ET的采集源代碼只能獲取這些劫持代碼,無(wú)法獲取采集網(wǎng)頁(yè)源代碼。通過(guò)設置這些劫持代碼的特征字符串,ET會(huì )嘗試突破劫持訪(fǎng)問(wèn)真實(shí)的網(wǎng)頁(yè)源代碼,并且最多可以重試訪(fǎng)問(wèn)URL 5次
4.設置用戶(hù)代理
網(wǎng)站通過(guò)userAgent判斷當前用戶(hù)使用的是什么瀏覽器,并根據瀏覽器可以支持的功能提供相應的功能。瀏覽器在訪(fǎng)問(wèn)網(wǎng)頁(yè)時(shí),通常會(huì )發(fā)送一個(gè)標識字符串來(lái)告訴網(wǎng)站這是什么瀏覽器軟件,而我們訪(fǎng)問(wèn)的部分網(wǎng)站會(huì )對UserAgent進(jìn)行限制,我們可以在基本設置中修改UserAgent ,也可以點(diǎn)擊'Get Local UserAgent'按鈕獲取本地IE默認UserAgent
5.設置支持的語(yǔ)言
采集一些網(wǎng)頁(yè),網(wǎng)站可能會(huì )勾選支持的語(yǔ)言,用戶(hù)可以在這里調整。
6.鎖定設置
打開(kāi)主菜單-系統-鎖設置,如圖:
該函數用于設置打開(kāi)每個(gè)配置窗口時(shí)的密碼。設置鎖定密碼后,使用菜單鎖定功能,防止用戶(hù)離開(kāi)計算機后,其他人無(wú)法訪(fǎng)問(wèn)和操作各項配置。
3.【前臺操作】
1.【選擇工作計劃】
工作計劃包括從源頭獲取原創(chuàng )信息、信息處理、最終發(fā)布到目標網(wǎng)站等一系列工作的所有設置說(shuō)明。它是 ET 自動(dòng) 采集 工作的指揮官。制定好后,我們在需要的方案(方案制定見(jiàn)用戶(hù)手冊-設置)后,就可以在主窗口選擇工作方案,開(kāi)始采集工作。
?、?了解節目區域;
主窗口左上角的樹(shù)狀目錄區為方案區,點(diǎn)擊鼠標右鍵彈出操作菜單
?、? 檢查選項;
點(diǎn)擊程序名前的選擇框,選擇要執行的程序,可以選擇多個(gè),
如果選擇的場(chǎng)景缺少關(guān)鍵配置,會(huì )提示并取消勾選
ET在工作時(shí),會(huì )先從當前的焦點(diǎn)方案開(kāi)始執行,即藍色高亮的方案,見(jiàn)圖4中的'網(wǎng)站-discuz 6.0 (with reply)'
多個(gè)選定的程序將循環(huán)執行。
在主窗口右上角的文章列表區,會(huì )顯示選中的焦點(diǎn)項目的待定文章。
右擊程序名稱(chēng),彈出菜單如圖
點(diǎn)擊Edit Scheme進(jìn)入方案編輯窗口
雙擊方案名稱(chēng),直接進(jìn)入方案編輯窗口。
2.自動(dòng)工作
選擇好要執行的工作計劃后,點(diǎn)擊主窗口左下方的“自動(dòng)”按鈕即可開(kāi)始全自動(dòng)工作。從此,用戶(hù)可以扔掉鼠標鍵盤(pán)和繁瑣的網(wǎng)站更新,和朋友出去玩,網(wǎng)站有自己的ET默默為你采集更新。要停止自動(dòng)工作,請單擊“停止”按鈕;
ET支持命令行啟動(dòng),參數/auto可以啟動(dòng)自動(dòng)工作,命令行使用示例:d:\editortools.exe /auto
3.手工作業(yè)
在調試解決方案時(shí),通常使用采集手動(dòng)操作。
?、?、采集目錄;

點(diǎn)擊主窗口左下方的'采集Category'按鈕,ET會(huì )對當前選中的焦點(diǎn)方案執行directory采集動(dòng)作,如果沒(méi)有焦點(diǎn)方案則依次執行
采集目錄信息顯示在主窗口右上角的文章列表區。
注意:修改計劃的采集規則時(shí),未發(fā)布的文章會(huì )自動(dòng)清除,包括發(fā)送失敗的文章,防止用戶(hù)繼續使用采集 的錯誤 文章 條目
?、?、處理文章;
當文章列表區有文章需要處理時(shí),點(diǎn)擊主窗口左下方的‘處理文章’按鈕,文章中的第一項文章 列表區域將按順序處理 Pending 文章execution采集action
文章 加工過(guò)程中,工作記錄會(huì )顯示在主窗口右下方的信息區,
加工完成后,文章列表區對應條目會(huì )顯示加工狀態(tài)
?、? 另一種手動(dòng) 文章 方法
在文章列表區,雙擊一個(gè)文章條目將對文章執行采集動(dòng)作,無(wú)論文章是否已被處理或不是。
4. 了解文章列表區
主窗口右上角的表格區是文章列表區,顯示已執行計劃的pending 文章,
?、? 文章列表區各列說(shuō)明;
文章采集Title:這是采集規則得到的文章標題-列表分析規則,如果采集規則沒(méi)有設置解析title數據項規則,那么ET會(huì )使用這里的文章采集標題作為發(fā)布標題,文章采集標題可以更改,點(diǎn)擊標題后面的省略號按鈕即可進(jìn)入編輯狀態(tài)
Status - Send: 當此項的值為YES時(shí),表示這篇文章文章已經(jīng)發(fā)布成功
Status-Sensitive:當此項的值為YES時(shí),表示文章文本收錄敏感關(guān)鍵詞
Status-Error: 0表示沒(méi)有錯誤,其他錯誤碼含義參考相關(guān)主題
Status - Processing:勾選文章項表示已經(jīng)執行,可以點(diǎn)擊取消勾選使其再次執行
?、?、轉換顯示碼
右擊文章列表區,彈出編碼菜單
?、? 雙擊執行文章采集;
上一節提到,可以雙擊文章列表區的一個(gè)文章條目,對其執行采集;
?、?、瀏覽按鈕
點(diǎn)擊文章條目的瀏覽按鈕可以訪(fǎng)問(wèn)文章的網(wǎng)址,用于確認網(wǎng)址是否正確、查看網(wǎng)頁(yè)源代碼等。
5.認識信息欄
信息欄用于跟蹤執行過(guò)程,反饋各種信息。是了解ET工作情況,解決采集遇到問(wèn)題的重要工具。
?、? 工作記錄:
該欄記錄了ET每一步的工作過(guò)程和狀態(tài),包括目錄采集和文章處理兩部分。我們可以通過(guò)工作記錄知道采集執行是否正確完成。問(wèn)題是什么?當出現問(wèn)題時(shí),用戶(hù)可以根據信息欄中的提示和其他反饋內容,快速準確地找到故障原因并解決。
?、?、采集源碼:
該欄顯示采集頁(yè)面在執行過(guò)程中的采集列表頁(yè)、文章頁(yè)面、文章頁(yè)面等的源代碼。通過(guò)使用本專(zhuān)欄源碼,您可以輕松進(jìn)行規則測試,提供規則定制依據。
注意有些網(wǎng)站會(huì )根據不同的訪(fǎng)問(wèn)瀏覽器顯示不同的源碼,所以自定義ET的采集規則時(shí),以本欄源碼為準,例如采集為'SMF 1.1 .5'在規則示例中,通過(guò)IE訪(fǎng)問(wèn)的源代碼網(wǎng)站和通過(guò)采集器獲取的優(yōu)采云是不同的。
?、? 分析數據:
該欄目展示了文章過(guò)程中各個(gè)數據項的信息,從解析的原創(chuàng )代碼,到排序后的代碼,再到URL修正后的代碼。通過(guò)查看該欄目,用戶(hù)可以了解設置的數據項分析規則是否準確,排序組規則是否完善,最終信息是否符合您的要求。
例如:當工作記錄欄提示錯誤‘文數大于或小于發(fā)布設置’時(shí),我們可以查看該欄‘文’數據項,判斷是大于還是小于發(fā)布設置,無(wú)論是正常原因還是由于整理組設置不當,調整每一個(gè)設置。
?、?、發(fā)送代碼
該欄顯示ET向發(fā)布網(wǎng)站發(fā)送的數據,包括文章校驗部分和文章發(fā)布部分;
通過(guò)該欄信息,用戶(hù)可以通過(guò)一系列的分析和排序操作了解提交給發(fā)布網(wǎng)站的數據,從而查看其采集規則數據項和發(fā)布參數設置規則是正確的,完整的。
?、? 退貨信息
該欄顯示了ET向發(fā)布網(wǎng)站發(fā)送數據后發(fā)布網(wǎng)站的反饋,包括文章檢查反饋和文章發(fā)布反饋;
通過(guò)查看本專(zhuān)欄,我們可以清楚地看到采集進(jìn)程出錯的大部分原因。
某些接口返回錯誤信息時(shí),信息可能是HTML代碼。不熟悉 HTML 代碼的用戶(hù)很難閱讀。點(diǎn)擊WEB瀏覽按鈕,可以在操作系統默認的瀏覽器中方便地查看。
運行要求
一、【操作系統要求】
EditorTools是一款win32軟件,可運行于微軟簡(jiǎn)體中文版Windows xp/2000/2003/2008/vista/win7等操作系統環(huán)境。我們對軟件中的上述操作系統進(jìn)行了大量的測試和實(shí)地考察,確保EditorTools能夠在上述系統上安全、穩定地運行。
如果您選擇在非簡(jiǎn)體中文的Windows操作系統下運行ET,您可能會(huì )遇到界面顯示亂碼等問(wèn)題。你需要自己測試一下。通常安裝標準的簡(jiǎn)體中文字體庫(GB2312)即可解決。
2.【配套環(huán)境要求】
EditorTools2要求電腦有如下軟件環(huán)境
mdac 2.8 或更高版本(ADO 數據庫驅動(dòng)程序)
注冊scrrun.dll(用于讀寫(xiě)腳本和文本文件)
注冊vbscript.dll(VBScript腳本相關(guān)支持文件)
免費的:navicat premium中文免費版功能
navicat premium 中文免費版是一款非常強大的數據管理工具,可以有很多功能鏈接到各種數據庫。它允許用戶(hù)存儲不同類(lèi)型的文件,如過(guò)程、事件、觸發(fā)器、視圖等,這將使用戶(hù)更容易使用它。
navicat premium中文免費版功能
1.無(wú)縫
數據可以無(wú)縫遷移,傳輸過(guò)程中可以同步,讓用戶(hù)享受無(wú)延遲的數據傳輸體驗。
2.查詢(xún)
它可以幫助用戶(hù)更好的查詢(xún)軟件中的信息,幫助用戶(hù)更好的編輯和創(chuàng )建,從而更快的生成代碼。

三、合作
讓用戶(hù)的連接設置、模型、查詢(xún)等東西同步到這個(gè)軟件的服務(wù)器上,方便用戶(hù)實(shí)時(shí)訪(fǎng)問(wèn)。
4.工具
提供了很多豐富的工具供用戶(hù)使用,讓用戶(hù)在查詢(xún)和使用數據的時(shí)候有一個(gè)更快的過(guò)程。
navicat premium中文免費版使用方法
1、打開(kāi)軟件后,選擇要連接的數據庫類(lèi)型,如圖。
2、然后設置連接名稱(chēng)等信息,輸入ip地址等信息。

3、完成后可以點(diǎn)擊鏈接測試按鈕測試是否正確。
4.雙擊左邊的鏈接,選擇一個(gè)數據庫,選擇一個(gè)表,可以看到所有的表信息。
5、可以在表信息中添加數據,修改數據等操作,然后記得保存。
解決方案:Android 實(shí)時(shí)視頻采集/編碼/傳輸/解碼/播放—方案調研
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 117 次瀏覽 ? 2022-12-15 11:35
這是一個(gè)用python實(shí)現的局域網(wǎng)視頻聊天和文件傳輸工具。收錄源碼和exe文件,可直接運行或交換源碼學(xué)習。系統名稱(chēng): 局域網(wǎng)視頻聊天和文件傳輸工具 1、運行環(huán)境為windows系統,多臺主機在同一局域網(wǎng)環(huán)境下。2、目錄下有4個(gè)exe文件和一個(gè)jpg。只要確保將它們放在同一目錄中即可。3、用戶(hù)只需點(diǎn)擊mchat.exe即可使用。4.系統首次運行時(shí)會(huì )自動(dòng)生成data文件夾,里面存放的內容是視頻聊天后錄制的視頻,當用戶(hù)需要發(fā)送文件時(shí),需要將對應的文件5、系統分為3個(gè)模塊(1)發(fā)送文件,單擊此按鈕時(shí),本機將成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。
內容分享:百度問(wèn)答采集軟件
問(wèn)答采集和聚合采集是我們文章的采集,根據不同的文章類(lèi)型,通過(guò)采集工具我們可以采集的問(wèn)答內容會(huì )重新組合聚合,多個(gè)文章生成一個(gè)問(wèn)答內容,自動(dòng)生成文章目錄完成問(wèn)答聚合。
在 網(wǎng)站 構建中,我們通常創(chuàng )建帶有部分的 文章 類(lèi)型,例如“寵物”部分,通過(guò)問(wèn)答 采集 和 文章 聚合 采集 ,我們可以快速填寫(xiě)該欄目?jì)热?,通過(guò)文章聚合,可以將多個(gè)與“寵物”相關(guān)的文章聚合成一個(gè)集合文章進(jìn)行發(fā)布。
問(wèn)答 采集 和聚合 采集 有什么好處(如圖)?
1. 關(guān)鍵詞采集問(wèn)答可以匯總來(lái)自多個(gè)平臺的不同答案。
2、聚合采集后的答案,并自動(dòng)生成目錄發(fā)布,集百所學(xué)校之力進(jìn)行問(wèn)答回復,提高內容質(zhì)量。
3、通過(guò)重組多個(gè)文章段落,自動(dòng)添加圖片水印,圖片鏈接本地化,提升文章原創(chuàng )度。
4. 標題可自由組合,可將原標題自動(dòng)生成雙標題、三標題。
最有價(jià)值的反向鏈接是永遠存在的反向鏈接。通過(guò)留下高權重的反向鏈接 網(wǎng)站 可以給我們帶來(lái)意想不到的收獲。它們通常放在帖子中的 文章 或 網(wǎng)站 上。對于此類(lèi)鏈接,請使用第三方 網(wǎng)站 錨點(diǎn)在文本中最自然出現的位置。
此類(lèi)鏈接放置在高質(zhì)量的 網(wǎng)站 站點(diǎn)上,這些站點(diǎn)沒(méi)有垃圾郵件,并且對搜索引擎的信任度很高。此類(lèi)鏈接的質(zhì)量比臨時(shí)鏈接高得多,但不會(huì )產(chǎn)生負面影響。
基于關(guān)系的反向鏈接也可以通過(guò)與其他平臺建立伙伴關(guān)系和易貨關(guān)系來(lái)免費獲得鏈接。例如,通過(guò): 交換出版物;作為專(zhuān)家發(fā)表評論 文章;兌換活動(dòng)公告、優(yōu)惠碼、用戶(hù)禮物等。
我們可以通過(guò)定位具有相似出席率的平臺和對可能有興趣合作的主題感興趣的受眾來(lái)創(chuàng )建這種基于關(guān)系的鏈接。創(chuàng )建潛在合作伙伴列表后,仔細篩選出有影響力的參與者和大量受眾,然后必須交換反向鏈接。
來(lái)賓博客鏈接,此選項是獲得指向我們 網(wǎng)站 的反向鏈接的最簡(jiǎn)單方法。它們允許我們通過(guò)發(fā)布訪(fǎng)問(wèn)者內容來(lái)增加我們頁(yè)面的訪(fǎng)問(wèn)量。例如,假設我們編寫(xiě)了一個(gè)有用的 文章,其中收錄對第三方資源提供者遇到的問(wèn)題的解決方案。
我們將我們的作者鏈接添加到它。在這種情況下,合作伙伴會(huì )收到好的內容并在其幫助下推動(dòng)流量,我們也會(huì )從中收到反向鏈接和轉化。 查看全部
解決方案:Android 實(shí)時(shí)視頻采集/編碼/傳輸/解碼/播放—方案調研

這是一個(gè)用python實(shí)現的局域網(wǎng)視頻聊天和文件傳輸工具。收錄源碼和exe文件,可直接運行或交換源碼學(xué)習。系統名稱(chēng): 局域網(wǎng)視頻聊天和文件傳輸工具 1、運行環(huán)境為windows系統,多臺主機在同一局域網(wǎng)環(huán)境下。2、目錄下有4個(gè)exe文件和一個(gè)jpg。只要確保將它們放在同一目錄中即可。3、用戶(hù)只需點(diǎn)擊mchat.exe即可使用。4.系統首次運行時(shí)會(huì )自動(dòng)生成data文件夾,里面存放的內容是視頻聊天后錄制的視頻,當用戶(hù)需要發(fā)送文件時(shí),需要將對應的文件5、系統分為3個(gè)模塊(1)發(fā)送文件,單擊此按鈕時(shí),本機將成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。

內容分享:百度問(wèn)答采集軟件
問(wèn)答采集和聚合采集是我們文章的采集,根據不同的文章類(lèi)型,通過(guò)采集工具我們可以采集的問(wèn)答內容會(huì )重新組合聚合,多個(gè)文章生成一個(gè)問(wèn)答內容,自動(dòng)生成文章目錄完成問(wèn)答聚合。
在 網(wǎng)站 構建中,我們通常創(chuàng )建帶有部分的 文章 類(lèi)型,例如“寵物”部分,通過(guò)問(wèn)答 采集 和 文章 聚合 采集 ,我們可以快速填寫(xiě)該欄目?jì)热?,通過(guò)文章聚合,可以將多個(gè)與“寵物”相關(guān)的文章聚合成一個(gè)集合文章進(jìn)行發(fā)布。
問(wèn)答 采集 和聚合 采集 有什么好處(如圖)?
1. 關(guān)鍵詞采集問(wèn)答可以匯總來(lái)自多個(gè)平臺的不同答案。
2、聚合采集后的答案,并自動(dòng)生成目錄發(fā)布,集百所學(xué)校之力進(jìn)行問(wèn)答回復,提高內容質(zhì)量。

3、通過(guò)重組多個(gè)文章段落,自動(dòng)添加圖片水印,圖片鏈接本地化,提升文章原創(chuàng )度。
4. 標題可自由組合,可將原標題自動(dòng)生成雙標題、三標題。
最有價(jià)值的反向鏈接是永遠存在的反向鏈接。通過(guò)留下高權重的反向鏈接 網(wǎng)站 可以給我們帶來(lái)意想不到的收獲。它們通常放在帖子中的 文章 或 網(wǎng)站 上。對于此類(lèi)鏈接,請使用第三方 網(wǎng)站 錨點(diǎn)在文本中最自然出現的位置。
此類(lèi)鏈接放置在高質(zhì)量的 網(wǎng)站 站點(diǎn)上,這些站點(diǎn)沒(méi)有垃圾郵件,并且對搜索引擎的信任度很高。此類(lèi)鏈接的質(zhì)量比臨時(shí)鏈接高得多,但不會(huì )產(chǎn)生負面影響。
基于關(guān)系的反向鏈接也可以通過(guò)與其他平臺建立伙伴關(guān)系和易貨關(guān)系來(lái)免費獲得鏈接。例如,通過(guò): 交換出版物;作為專(zhuān)家發(fā)表評論 文章;兌換活動(dòng)公告、優(yōu)惠碼、用戶(hù)禮物等。

我們可以通過(guò)定位具有相似出席率的平臺和對可能有興趣合作的主題感興趣的受眾來(lái)創(chuàng )建這種基于關(guān)系的鏈接。創(chuàng )建潛在合作伙伴列表后,仔細篩選出有影響力的參與者和大量受眾,然后必須交換反向鏈接。
來(lái)賓博客鏈接,此選項是獲得指向我們 網(wǎng)站 的反向鏈接的最簡(jiǎn)單方法。它們允許我們通過(guò)發(fā)布訪(fǎng)問(wèn)者內容來(lái)增加我們頁(yè)面的訪(fǎng)問(wèn)量。例如,假設我們編寫(xiě)了一個(gè)有用的 文章,其中收錄對第三方資源提供者遇到的問(wèn)題的解決方案。
我們將我們的作者鏈接添加到它。在這種情況下,合作伙伴會(huì )收到好的內容并在其幫助下推動(dòng)流量,我們也會(huì )從中收到反向鏈接和轉化。
推薦文章:wordpress文章采集,自媒體有哪些免費的文章采集網(wǎng)站
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 167 次瀏覽 ? 2022-12-11 18:12
wordpress 文章采集, 自媒體 有哪些免費的文章采集網(wǎng)站?
其他微信公眾號文章的排版很漂亮,只能眼巴巴看著(zhù),想用卻不知如何下手?
我要轉一篇文章,好不容易復制過(guò)來(lái),粘貼的時(shí)候發(fā)現格式全亂了?
今天教大家一個(gè)小技巧——文章采集,無(wú)論是排版還是文章內容,都可以一鍵導入到編輯器中,快來(lái)學(xué)習吧。
01采集演示
整個(gè)操作過(guò)程不到5秒,是不是超級簡(jiǎn)單?超級快速且易于使用?
02教程
接下來(lái),我們來(lái)看看采集函數的使用方法。
?、?選擇目標文章,復制文章鏈接。
電腦用戶(hù)可以直接全選并復制瀏覽器地址欄中的文章鏈接。
▲ PC端保存文章鏈接
手機用戶(hù)可以點(diǎn)擊右上角的菜單按鈕,選擇復制鏈接,將鏈接發(fā)送到電腦端。
▲ 在移動(dòng)端保存文章鏈接
?、?點(diǎn)擊采集按鈕。
Ant Editor()中有兩個(gè)文章采集函數入口:
?、?編輯菜單右上角的[采集文章]按鈕;
▲ 采集 按鈕
?、?右功能按鈕下方的[采集文章]按鈕。
▲ 采集 按鈕
?、?粘貼文章鏈接和采集。
▲ 粘貼鏈接 采集
小編支持采集微信公眾號、QQ公眾號、今日頭條號、百度百家號、一點(diǎn)號、網(wǎng)易號、搜狐公眾號、新浪博客、騰訊新聞、新浪新聞、天天快報、網(wǎng)易新聞、知乎 專(zhuān)欄以及 [許多 自媒體 平臺]文章 上的更多內容。
03文章申請
將文章采集放入編輯區后,我們就可以進(jìn)行后續的修改和排版了。
?、挪捎迷呐虐?。
如果只使用原文排版,導入文章采集后,只需要【替換文字和圖片】即可。
文本替換:將要使用的文本寫(xiě)入編輯區,或使用無(wú)格式粘貼(Ctrl+Shift+V)將文本粘貼到編輯區,然后使用【格式刷】工具套用原來(lái)的格式文本到新輸入的文本中。
▲格式刷
圖片替換:在編輯區點(diǎn)擊需要替換的圖片,再點(diǎn)擊右側圖片區的圖片即可完成替換。
?、?借鑒原文內容。
如果不需要對原文進(jìn)行排版,只需要使用文章的內容,在編輯區添加文章采集后,可以使用快捷鍵(Ctrl+A)全選,然后用【清除格式】按鈕清除原文格式,然后排版文章的內容。
▲ 格式清晰
?、?可以在編輯器中使用【秒刷】功能直接套用素材樣式:選中要秒刷的內容,點(diǎn)擊喜歡的樣式,樣式即可成功使用。?
▲二刷
?、?可使用【智能排列】在編輯器中一鍵套用全文模板:選擇全文模板,設置基本參數,點(diǎn)擊鼠標,全文模板將自動(dòng)套用。操作簡(jiǎn)單易學(xué),使用方便。
▲ 智能排版
采集你學(xué)會(huì )如何使用這個(gè)功能了嗎?如果你平時(shí)看到版面精美、內容豐富的文章,不妨先采集起來(lái),以備日后之用。
優(yōu)采云通用文章采集器沒(méi)有頁(yè)碼的動(dòng)態(tài)加載列表頁(yè)怎么辦采集?
采集 內容不包括分頁(yè)部分,只有文章 內容是必需的。
只需在測試頁(yè)下的分頁(yè)規則中填寫(xiě)分頁(yè),系統就會(huì )自動(dòng)采集分頁(yè)。
因為每個(gè)頁(yè)面的內容代碼都是一樣的,系統會(huì )自動(dòng)判斷。
wordpress如何將文章批量導入數據庫?
進(jìn)入WordPress后臺:工具->導入,點(diǎn)擊列表中的WordPress;如果你的WordPress網(wǎng)站沒(méi)有安裝WordPress Importer,會(huì )彈出安裝頁(yè)面,點(diǎn)擊立即安裝;安裝完成后,點(diǎn)擊“啟用插件并運行導入工具”
;點(diǎn)擊選擇文件,選擇xml文件,然后點(diǎn)擊“上傳并導入”
;在接下來(lái)的頁(yè)面中,選擇“下載并導入文件附件” ;由于要從遠程服務(wù)器下載演示內容所需的圖片,可能需要較長(cháng)時(shí)間。
如何使用 WordPress 制作您自己的 網(wǎng)站?
這個(gè)問(wèn)題的范圍比較廣??梢岳斫鉃槭褂肳ordPress搭建網(wǎng)站。首先你要有自己的域名和主機,然后把域名解析成主機IP,然后下載WordPress安裝包上傳到主機根目錄下。然后通過(guò)瀏覽器訪(fǎng)問(wèn)域名,按照要求一步步填寫(xiě)相關(guān)信息進(jìn)行安裝。
安裝WordPress后,默認使用官方主機。建議換成國內優(yōu)秀的WordPress主題,然后就可以登錄后臺發(fā)布文章了。
采集 的文章 內容如何快速收錄?
文章成為收錄基本上取決于兩個(gè)因素。
一是文章的原創(chuàng )度,搜索引擎喜歡原創(chuàng )的內容,而且原創(chuàng )質(zhì)量高原創(chuàng ),不是沒(méi)有邏輯的文章原創(chuàng ),一般人做不到原創(chuàng ),你可以偽原創(chuàng ),采集文章別專(zhuān)心做采集一件,你可以采集整理和修改多篇文章,不要采集文章的第一段和最后一段,或者用自己的話(huà)翻譯采集的內容。最好在段落的開(kāi)頭和結尾嵌入關(guān)鍵詞,呼應標題。
另一個(gè)因素是發(fā)布平臺的重量。同一個(gè)文章,發(fā)布在不同權重的平臺上,權重高的可能很快收錄,權重低的可能慢收錄甚至收錄。所以選擇一個(gè)高權重的平臺也是關(guān)鍵。
匯總:六點(diǎn)告訴你如何提高站點(diǎn)的收錄
點(diǎn)擊上方藍字關(guān)注我,閱讀美文
網(wǎng)站優(yōu)化后,如果想讓網(wǎng)站的關(guān)鍵詞排名更高,首先要做的就是添加更多的網(wǎng)站內容,這樣當網(wǎng)站當包括在內時(shí),排名會(huì )相應增長(cháng)。對于收錄來(lái)說(shuō),只要網(wǎng)站優(yōu)化到位,就沒(méi)有大問(wèn)題。下面我們將本站細分為包括這部分在內的改進(jìn)方法,幫助大家網(wǎng)站改進(jìn)更多收錄。
1. 提高網(wǎng)站文章質(zhì)量
網(wǎng)站上線(xiàn)后,最好保持三個(gè)月的高質(zhì)量文章更新,這樣搜索引擎才有機會(huì )開(kāi)放logo權限。如果開(kāi)啟logo權限,就相當于搜索引擎對你的網(wǎng)站得到肯定,有潛力有優(yōu)質(zhì)的內容更新,是否可以依靠搜索引擎的信任度不斷增加文章的更新或排名靠你的堅持,文章收錄之后,盡量不要隨意修改,否則會(huì )導致蜘蛛反復爬行,影響其他文章的收錄。
2、新址保護期
所謂新站保護,是指該域名在備案上線(xiàn)時(shí)間后六個(gè)月內沒(méi)有做過(guò)任何相關(guān)的網(wǎng)站上線(xiàn)操作,可以直接參與公司的備案提交,然后開(kāi)始出現對于百度新站鏈接提交的保護期,這個(gè)網(wǎng)絡(luò )鏈接提交入口可以和搜索引擎的手動(dòng)提交入口一起提交,他們一般都是在新站保護期內提交鏈接,除非你后來(lái)發(fā)現你的文章內容是低質(zhì)量的,不然已經(jīng)收錄的文章不容易丟失。
3、人工提交,搜索引擎主動(dòng)推送
百度搜索引擎驗證企業(yè)網(wǎng)站系統后,會(huì )通過(guò)以下三個(gè)方面文章向我們提交詞條,一是人工推送,即一個(gè)一個(gè)復制鏈接并提交或者分批提交 OK,同學(xué)們也可以不用收錄通過(guò)學(xué)習其他個(gè)人賬號分析搜索鏈接問(wèn)題,然后提交。公司賬號一天只能提交20條(不確定,忘了,可以去Verify)。
4.外鏈建設
當網(wǎng)站發(fā)布文章時(shí),如果依賴(lài)域名的蜘蛛只是爬行,依靠高權重平臺的幫助將自己通過(guò)博客和文章收錄是不現實(shí)的。中的論壇 文章 可以在鏈接中發(fā)布。
5.內鏈建設
文章收錄前期可以做內部鏈接,但是需要自己開(kāi)發(fā)站點(diǎn)專(zhuān)用的關(guān)鍵詞+鏈接功能,比如發(fā)表一篇文章文章想要文章 鏈接到 關(guān)鍵詞 將自動(dòng)鏈接到 關(guān)鍵詞。這樣,您可以節省 網(wǎng)站 網(wǎng)站管理員手動(dòng)添加他們自己的 關(guān)鍵詞 鏈接的時(shí)間。(有些公司網(wǎng)站的bug比較多,比如完成這個(gè)功能后,會(huì )出現一些自己鏈接自己的現象文章,有沒(méi)有這種開(kāi)發(fā)需要自行查看)。
6、聚合頁(yè)面的制作
有的網(wǎng)站大量發(fā)布了文章,有的文章反復發(fā)布。這個(gè)問(wèn)題可能會(huì )影響公司 網(wǎng)站收錄 在發(fā)展的瓶頸期,我們可以做聚合頁(yè)面,也就是TAG頁(yè)面,生成新的特殊頁(yè)面供蜘蛛爬取,這樣它們就有更多的人不主動(dòng)參與排名ranking的文章結構分析。
如果想快速被百度收錄,可以先適當提交文章質(zhì)量,然后再做seo優(yōu)化的基本操作,基本上沒(méi)什么大問(wèn)題,除非有問(wèn)題域名或服務(wù)器速度太慢等原因,發(fā)現這些問(wèn)題的朋友請盡快改正。 查看全部
推薦文章:wordpress文章采集,自媒體有哪些免費的文章采集網(wǎng)站
wordpress 文章采集, 自媒體 有哪些免費的文章采集網(wǎng)站?
其他微信公眾號文章的排版很漂亮,只能眼巴巴看著(zhù),想用卻不知如何下手?
我要轉一篇文章,好不容易復制過(guò)來(lái),粘貼的時(shí)候發(fā)現格式全亂了?
今天教大家一個(gè)小技巧——文章采集,無(wú)論是排版還是文章內容,都可以一鍵導入到編輯器中,快來(lái)學(xué)習吧。
01采集演示
整個(gè)操作過(guò)程不到5秒,是不是超級簡(jiǎn)單?超級快速且易于使用?
02教程
接下來(lái),我們來(lái)看看采集函數的使用方法。
?、?選擇目標文章,復制文章鏈接。
電腦用戶(hù)可以直接全選并復制瀏覽器地址欄中的文章鏈接。
▲ PC端保存文章鏈接
手機用戶(hù)可以點(diǎn)擊右上角的菜單按鈕,選擇復制鏈接,將鏈接發(fā)送到電腦端。
▲ 在移動(dòng)端保存文章鏈接
?、?點(diǎn)擊采集按鈕。
Ant Editor()中有兩個(gè)文章采集函數入口:
?、?編輯菜單右上角的[采集文章]按鈕;
▲ 采集 按鈕

?、?右功能按鈕下方的[采集文章]按鈕。
▲ 采集 按鈕
?、?粘貼文章鏈接和采集。
▲ 粘貼鏈接 采集
小編支持采集微信公眾號、QQ公眾號、今日頭條號、百度百家號、一點(diǎn)號、網(wǎng)易號、搜狐公眾號、新浪博客、騰訊新聞、新浪新聞、天天快報、網(wǎng)易新聞、知乎 專(zhuān)欄以及 [許多 自媒體 平臺]文章 上的更多內容。
03文章申請
將文章采集放入編輯區后,我們就可以進(jìn)行后續的修改和排版了。
?、挪捎迷呐虐?。
如果只使用原文排版,導入文章采集后,只需要【替換文字和圖片】即可。
文本替換:將要使用的文本寫(xiě)入編輯區,或使用無(wú)格式粘貼(Ctrl+Shift+V)將文本粘貼到編輯區,然后使用【格式刷】工具套用原來(lái)的格式文本到新輸入的文本中。
▲格式刷
圖片替換:在編輯區點(diǎn)擊需要替換的圖片,再點(diǎn)擊右側圖片區的圖片即可完成替換。
?、?借鑒原文內容。
如果不需要對原文進(jìn)行排版,只需要使用文章的內容,在編輯區添加文章采集后,可以使用快捷鍵(Ctrl+A)全選,然后用【清除格式】按鈕清除原文格式,然后排版文章的內容。
▲ 格式清晰
?、?可以在編輯器中使用【秒刷】功能直接套用素材樣式:選中要秒刷的內容,點(diǎn)擊喜歡的樣式,樣式即可成功使用。?
▲二刷
?、?可使用【智能排列】在編輯器中一鍵套用全文模板:選擇全文模板,設置基本參數,點(diǎn)擊鼠標,全文模板將自動(dòng)套用。操作簡(jiǎn)單易學(xué),使用方便。

▲ 智能排版
采集你學(xué)會(huì )如何使用這個(gè)功能了嗎?如果你平時(shí)看到版面精美、內容豐富的文章,不妨先采集起來(lái),以備日后之用。
優(yōu)采云通用文章采集器沒(méi)有頁(yè)碼的動(dòng)態(tài)加載列表頁(yè)怎么辦采集?
采集 內容不包括分頁(yè)部分,只有文章 內容是必需的。
只需在測試頁(yè)下的分頁(yè)規則中填寫(xiě)分頁(yè),系統就會(huì )自動(dòng)采集分頁(yè)。
因為每個(gè)頁(yè)面的內容代碼都是一樣的,系統會(huì )自動(dòng)判斷。
wordpress如何將文章批量導入數據庫?
進(jìn)入WordPress后臺:工具->導入,點(diǎn)擊列表中的WordPress;如果你的WordPress網(wǎng)站沒(méi)有安裝WordPress Importer,會(huì )彈出安裝頁(yè)面,點(diǎn)擊立即安裝;安裝完成后,點(diǎn)擊“啟用插件并運行導入工具”
;點(diǎn)擊選擇文件,選擇xml文件,然后點(diǎn)擊“上傳并導入”
;在接下來(lái)的頁(yè)面中,選擇“下載并導入文件附件” ;由于要從遠程服務(wù)器下載演示內容所需的圖片,可能需要較長(cháng)時(shí)間。
如何使用 WordPress 制作您自己的 網(wǎng)站?
這個(gè)問(wèn)題的范圍比較廣??梢岳斫鉃槭褂肳ordPress搭建網(wǎng)站。首先你要有自己的域名和主機,然后把域名解析成主機IP,然后下載WordPress安裝包上傳到主機根目錄下。然后通過(guò)瀏覽器訪(fǎng)問(wèn)域名,按照要求一步步填寫(xiě)相關(guān)信息進(jìn)行安裝。
安裝WordPress后,默認使用官方主機。建議換成國內優(yōu)秀的WordPress主題,然后就可以登錄后臺發(fā)布文章了。
采集 的文章 內容如何快速收錄?
文章成為收錄基本上取決于兩個(gè)因素。
一是文章的原創(chuàng )度,搜索引擎喜歡原創(chuàng )的內容,而且原創(chuàng )質(zhì)量高原創(chuàng ),不是沒(méi)有邏輯的文章原創(chuàng ),一般人做不到原創(chuàng ),你可以偽原創(chuàng ),采集文章別專(zhuān)心做采集一件,你可以采集整理和修改多篇文章,不要采集文章的第一段和最后一段,或者用自己的話(huà)翻譯采集的內容。最好在段落的開(kāi)頭和結尾嵌入關(guān)鍵詞,呼應標題。
另一個(gè)因素是發(fā)布平臺的重量。同一個(gè)文章,發(fā)布在不同權重的平臺上,權重高的可能很快收錄,權重低的可能慢收錄甚至收錄。所以選擇一個(gè)高權重的平臺也是關(guān)鍵。
匯總:六點(diǎn)告訴你如何提高站點(diǎn)的收錄
點(diǎn)擊上方藍字關(guān)注我,閱讀美文
網(wǎng)站優(yōu)化后,如果想讓網(wǎng)站的關(guān)鍵詞排名更高,首先要做的就是添加更多的網(wǎng)站內容,這樣當網(wǎng)站當包括在內時(shí),排名會(huì )相應增長(cháng)。對于收錄來(lái)說(shuō),只要網(wǎng)站優(yōu)化到位,就沒(méi)有大問(wèn)題。下面我們將本站細分為包括這部分在內的改進(jìn)方法,幫助大家網(wǎng)站改進(jìn)更多收錄。
1. 提高網(wǎng)站文章質(zhì)量
網(wǎng)站上線(xiàn)后,最好保持三個(gè)月的高質(zhì)量文章更新,這樣搜索引擎才有機會(huì )開(kāi)放logo權限。如果開(kāi)啟logo權限,就相當于搜索引擎對你的網(wǎng)站得到肯定,有潛力有優(yōu)質(zhì)的內容更新,是否可以依靠搜索引擎的信任度不斷增加文章的更新或排名靠你的堅持,文章收錄之后,盡量不要隨意修改,否則會(huì )導致蜘蛛反復爬行,影響其他文章的收錄。

2、新址保護期
所謂新站保護,是指該域名在備案上線(xiàn)時(shí)間后六個(gè)月內沒(méi)有做過(guò)任何相關(guān)的網(wǎng)站上線(xiàn)操作,可以直接參與公司的備案提交,然后開(kāi)始出現對于百度新站鏈接提交的保護期,這個(gè)網(wǎng)絡(luò )鏈接提交入口可以和搜索引擎的手動(dòng)提交入口一起提交,他們一般都是在新站保護期內提交鏈接,除非你后來(lái)發(fā)現你的文章內容是低質(zhì)量的,不然已經(jīng)收錄的文章不容易丟失。
3、人工提交,搜索引擎主動(dòng)推送
百度搜索引擎驗證企業(yè)網(wǎng)站系統后,會(huì )通過(guò)以下三個(gè)方面文章向我們提交詞條,一是人工推送,即一個(gè)一個(gè)復制鏈接并提交或者分批提交 OK,同學(xué)們也可以不用收錄通過(guò)學(xué)習其他個(gè)人賬號分析搜索鏈接問(wèn)題,然后提交。公司賬號一天只能提交20條(不確定,忘了,可以去Verify)。
4.外鏈建設

當網(wǎng)站發(fā)布文章時(shí),如果依賴(lài)域名的蜘蛛只是爬行,依靠高權重平臺的幫助將自己通過(guò)博客和文章收錄是不現實(shí)的。中的論壇 文章 可以在鏈接中發(fā)布。
5.內鏈建設
文章收錄前期可以做內部鏈接,但是需要自己開(kāi)發(fā)站點(diǎn)專(zhuān)用的關(guān)鍵詞+鏈接功能,比如發(fā)表一篇文章文章想要文章 鏈接到 關(guān)鍵詞 將自動(dòng)鏈接到 關(guān)鍵詞。這樣,您可以節省 網(wǎng)站 網(wǎng)站管理員手動(dòng)添加他們自己的 關(guān)鍵詞 鏈接的時(shí)間。(有些公司網(wǎng)站的bug比較多,比如完成這個(gè)功能后,會(huì )出現一些自己鏈接自己的現象文章,有沒(méi)有這種開(kāi)發(fā)需要自行查看)。
6、聚合頁(yè)面的制作
有的網(wǎng)站大量發(fā)布了文章,有的文章反復發(fā)布。這個(gè)問(wèn)題可能會(huì )影響公司 網(wǎng)站收錄 在發(fā)展的瓶頸期,我們可以做聚合頁(yè)面,也就是TAG頁(yè)面,生成新的特殊頁(yè)面供蜘蛛爬取,這樣它們就有更多的人不主動(dòng)參與排名ranking的文章結構分析。
如果想快速被百度收錄,可以先適當提交文章質(zhì)量,然后再做seo優(yōu)化的基本操作,基本上沒(méi)什么大問(wèn)題,除非有問(wèn)題域名或服務(wù)器速度太慢等原因,發(fā)現這些問(wèn)題的朋友請盡快改正。
實(shí)時(shí)文章采集 完美:建筑學(xué)工科生如何在建筑行業(yè)中脫穎而出
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 146 次瀏覽 ? 2022-12-10 16:27
實(shí)時(shí)文章采集,并且每篇文章均可投稿。地址:facebook或者buzzfeed及其他主流媒體投稿的地址:投稿:大家可以站內私信我,也可以發(fā)郵件到coursedesign@fanhua.fy,sketchup3d方面的筆試問(wèn)題,以及相關(guān)論文方面的問(wèn)題,職位信息,公司環(huán)境以及推薦,設計建議以及其他問(wèn)題,我都會(huì )一一回復。
謝邀,怎么說(shuō)呢,很喜歡游戲行業(yè),也想畢業(yè)就去,但還沒(méi)來(lái)得及,以后如果來(lái)得及的話(huà)也會(huì )去嘗試游戲建模,看著(zhù)現在這么多優(yōu)秀的人,還是有動(dòng)力的。
當然來(lái)得及!來(lái)得及!我建筑的同學(xué)一個(gè)個(gè)考注冊,考中級,考高級(嗯,每年只要到中級考試就會(huì )被拖延),高級考試都排在八月,美術(shù)指導們已經(jīng)開(kāi)始加班了!基本你學(xué)習,能考上市建筑高級的,那么你這四年本專(zhuān)業(yè)就應該在建筑行業(yè)了。我這三年,覺(jué)得自己當時(shí)混四年建筑,真的是圖樣圖森破!直到現在我都在努力考有計算機二級的考試,方便找工作(狗頭)?。?!如果你像我一樣在學(xué)校學(xué)習渲染,ps等學(xué)位課的話(huà),一個(gè)建筑學(xué)工科生如果喜歡,去讀個(gè)bim!那將是很棒的??!如果想去游戲公司工作,趕緊的學(xué)u3d和opengl!否則人家一提opengl你就要跪了?。?!你要是說(shuō)你學(xué)adobe全家桶,會(huì )用coreldraw?那么ps一定要學(xué)?。?!把頂點(diǎn)縮放模糊模糊上色寫(xiě)的漂亮點(diǎn),那這個(gè)學(xué)位上你將是個(gè)很棒的業(yè)余愛(ài)好者了!你還要學(xué)模型渲染,特效渲染,音效渲染,爆炸渲染!還要學(xué)各種渲染器!搞渲染器一定會(huì )耗時(shí)費錢(qián)你還要對專(zhuān)業(yè)課學(xué)的很熟練!那你的專(zhuān)業(yè)是學(xué)校的不是自己編程做游戲的?。?!建筑學(xué)大一每周兩次課,大二之后每天一堂課這樣子(我知道這話(huà)比較糙)還要實(shí)驗一下這個(gè)專(zhuān)業(yè)!給排水設計能扛得住的才有可能當你天天疲憊學(xué)建筑的老師,專(zhuān)業(yè)要是不精通,工資一定不會(huì )高的?。?!而且各種渲染器分區域渲染就是這樣的,每次畫(huà)效果圖,你會(huì )吐??!渲染器這四年吃點(diǎn)東西!保證你不會(huì )找不到女朋友,起碼在你面前是長(cháng)相不錯的??!而且這四年你還能培養點(diǎn)其他愛(ài)好,比如說(shuō)(找到對象的話(huà))!把四年的學(xué)業(yè)搞好,爭取接觸多一點(diǎn)其他方面的東西,以后設計的路更寬!千萬(wàn)不要拿畢業(yè)設計當做吃飯的手藝,不能養家糊口的??!能吃飽,這才是正事!當你最后要畢業(yè)設計的時(shí)候,你才會(huì )懷念四年虛度光陰的日子,后悔當初沒(méi)有認真學(xué)習這些學(xué)位課知識?。ㄟ@句話(huà)在我寒假臨近畢業(yè)時(shí))以上!。 查看全部
實(shí)時(shí)文章采集 完美:建筑學(xué)工科生如何在建筑行業(yè)中脫穎而出

實(shí)時(shí)文章采集,并且每篇文章均可投稿。地址:facebook或者buzzfeed及其他主流媒體投稿的地址:投稿:大家可以站內私信我,也可以發(fā)郵件到coursedesign@fanhua.fy,sketchup3d方面的筆試問(wèn)題,以及相關(guān)論文方面的問(wèn)題,職位信息,公司環(huán)境以及推薦,設計建議以及其他問(wèn)題,我都會(huì )一一回復。

謝邀,怎么說(shuō)呢,很喜歡游戲行業(yè),也想畢業(yè)就去,但還沒(méi)來(lái)得及,以后如果來(lái)得及的話(huà)也會(huì )去嘗試游戲建模,看著(zhù)現在這么多優(yōu)秀的人,還是有動(dòng)力的。
當然來(lái)得及!來(lái)得及!我建筑的同學(xué)一個(gè)個(gè)考注冊,考中級,考高級(嗯,每年只要到中級考試就會(huì )被拖延),高級考試都排在八月,美術(shù)指導們已經(jīng)開(kāi)始加班了!基本你學(xué)習,能考上市建筑高級的,那么你這四年本專(zhuān)業(yè)就應該在建筑行業(yè)了。我這三年,覺(jué)得自己當時(shí)混四年建筑,真的是圖樣圖森破!直到現在我都在努力考有計算機二級的考試,方便找工作(狗頭)?。?!如果你像我一樣在學(xué)校學(xué)習渲染,ps等學(xué)位課的話(huà),一個(gè)建筑學(xué)工科生如果喜歡,去讀個(gè)bim!那將是很棒的??!如果想去游戲公司工作,趕緊的學(xué)u3d和opengl!否則人家一提opengl你就要跪了?。?!你要是說(shuō)你學(xué)adobe全家桶,會(huì )用coreldraw?那么ps一定要學(xué)?。?!把頂點(diǎn)縮放模糊模糊上色寫(xiě)的漂亮點(diǎn),那這個(gè)學(xué)位上你將是個(gè)很棒的業(yè)余愛(ài)好者了!你還要學(xué)模型渲染,特效渲染,音效渲染,爆炸渲染!還要學(xué)各種渲染器!搞渲染器一定會(huì )耗時(shí)費錢(qián)你還要對專(zhuān)業(yè)課學(xué)的很熟練!那你的專(zhuān)業(yè)是學(xué)校的不是自己編程做游戲的?。?!建筑學(xué)大一每周兩次課,大二之后每天一堂課這樣子(我知道這話(huà)比較糙)還要實(shí)驗一下這個(gè)專(zhuān)業(yè)!給排水設計能扛得住的才有可能當你天天疲憊學(xué)建筑的老師,專(zhuān)業(yè)要是不精通,工資一定不會(huì )高的?。?!而且各種渲染器分區域渲染就是這樣的,每次畫(huà)效果圖,你會(huì )吐??!渲染器這四年吃點(diǎn)東西!保證你不會(huì )找不到女朋友,起碼在你面前是長(cháng)相不錯的??!而且這四年你還能培養點(diǎn)其他愛(ài)好,比如說(shuō)(找到對象的話(huà))!把四年的學(xué)業(yè)搞好,爭取接觸多一點(diǎn)其他方面的東西,以后設計的路更寬!千萬(wàn)不要拿畢業(yè)設計當做吃飯的手藝,不能養家糊口的??!能吃飽,這才是正事!當你最后要畢業(yè)設計的時(shí)候,你才會(huì )懷念四年虛度光陰的日子,后悔當初沒(méi)有認真學(xué)習這些學(xué)位課知識?。ㄟ@句話(huà)在我寒假臨近畢業(yè)時(shí))以上!。
解決方案:漫畫(huà)趣解Flink實(shí)時(shí)數倉:搬橡果
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 76 次瀏覽 ? 2022-12-10 14:52
1 底漆(移動(dòng)橡子)
入冬了,我和小伙伴們開(kāi)始囤年貨了。
今年干了半年多,我們收獲了一整車(chē)的橡子。我們小松鼠喜歡把這些心愛(ài)的橡子放在儲藏室里。
于是我今天早早起床,開(kāi)始搬這些橡子。
過(guò)了一會(huì )兒,慧慧突然告訴我,她想吃昨天摘的一個(gè)灰色的小橡子。
我看著(zhù)眼前堆積如山的年貨,苦惱地摸了摸自己的腦袋:等我搬到那個(gè)給你。
慧慧很不高興,嘀咕道:為什么我們昨天一脫下來(lái)就不能動(dòng)呢?
我解釋說(shuō):我們每年存的錢(qián)只夠買(mǎi)一輛車(chē)一起搬家嗎?
看著(zhù)一旁生氣的灰灰,我放慢了背的速度~
抬頭看著(zhù)高高的橡子堆,他嘆了口氣。他一邊拿著(zhù),一邊尋找自己想要的小橡子。. .
今天怕是走不動(dòng)了~
2 慢還是快?
總而言之,我們在故事中遇到了一些小煩惱:
關(guān)鍵詞:速度慢、體量大、時(shí)效性差、搜索快、溯源性差。.
帶著(zhù)這個(gè)小故事,我回到了本文的主題。
這些關(guān)鍵詞也是企業(yè)實(shí)時(shí)數倉建設中經(jīng)常遇到的一些困難和訴求。
2.1 企業(yè)實(shí)時(shí)數倉建設需求
大多數企業(yè)都面臨著(zhù)數據來(lái)源多、結構復雜的問(wèn)題。為了更好地管理數據和賦能價(jià)值,他們往往在集團和部門(mén)內部建立數據倉庫。
一般初期的數據倉庫開(kāi)發(fā)流程大致如下:
初始業(yè)務(wù)數據倉庫開(kāi)發(fā)過(guò)程
可以想象,隨著(zhù)業(yè)務(wù)需求的不斷增加,這種煙囪式的開(kāi)發(fā)模式會(huì )暴露出很多問(wèn)題:
為此,大量企業(yè)的數據團隊開(kāi)始規劃數據倉庫,對數據進(jìn)行分層。
數據倉庫分層架構
數據組織成分層存儲,每一層獨立處理。整體遵循自下而上的構建思路,最大限度地為數據賦能。
2.2 穩定的離線(xiàn)數據倉庫
商業(yè)場(chǎng)景
要求每天出具每日用戶(hù)訪(fǎng)問(wèn)PV和UV流量報表,并將結果輸出到業(yè)務(wù)數據庫
在前期的規劃中,在對實(shí)時(shí)數據要求不高的前提下,我們一開(kāi)始基本上會(huì )選擇搭建離線(xiàn)數倉。
離線(xiàn)數倉建設流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
既然知道了 Hive 的計算速度比較慢,但是我們又不想放棄它高效的存儲和查詢(xún)功能。
那我們試試另一個(gè)計算引擎:Spark。
Spark離線(xiàn)數倉流程
整體流程不變,主要是Spark負責o(wú)ds->dwd->dws層的數據處理。效果很明顯,比Hive計算快很多。
注意Spark是內存級別的計算引擎,需要合理規劃內存大小,防止OOM(內存泄漏)。
目前,兩個(gè)離線(xiàn)數倉完美滿(mǎn)足了業(yè)務(wù)需求。第二天領(lǐng)導看了報表統計,結果大家都很開(kāi)心~
現在考慮另一種場(chǎng)景:你不想等到第二天才能看到結果,你需要實(shí)時(shí)顯示指標。這時(shí)候就需要搭建一個(gè)實(shí)時(shí)數據倉庫。
3 冗余還是可追溯性?
商業(yè)場(chǎng)景
實(shí)時(shí)統計每秒用戶(hù)訪(fǎng)問(wèn)PV、UV流量報表,結果輸出到業(yè)務(wù)數據庫,支持歷史數據回顧
既然要求達到實(shí)時(shí)效果,首先要考慮優(yōu)化處理計算過(guò)程。因此,需要更換Spark,使用Flink計算引擎。
在技??術(shù)實(shí)現上,業(yè)界常用的實(shí)時(shí)數倉架構有兩種:Lambda架構和Kappa架構。
3.1 Lambda架構
顧名思義,Lambda架構保留了實(shí)時(shí)和離線(xiàn)兩種處理流程,即實(shí)時(shí)數倉和離線(xiàn)數倉最終會(huì )同時(shí)構建。
Lambda架構實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
針對同一個(gè)數據源被處理兩次這一點(diǎn),對上述Lambda架構進(jìn)行了改進(jìn)。
改進(jìn)的 Lambda 實(shí)時(shí)數據倉庫流程
通過(guò)定時(shí)刷新實(shí)時(shí)技術(shù)流各層計算結果到離線(xiàn)數倉,數據源唯一讀取。大大減少了數據的重復計算,加快了程序的運行時(shí)間。
總結:數據存儲,計算冗余;歷史數據可追溯
3.2 Kappa架構
為了解決上述模式下數據的冗余存儲和計算問(wèn)題,降低技術(shù)架構的復雜度,這里引入另一種模式:Kappa架構。
Kappa實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
總結:數據存儲只計算一次;史料難以追溯
總的來(lái)說(shuō),雖然第一種Lambda架構有很多缺點(diǎn),但它具有程序健壯性和數據完整性,所以在企業(yè)中使用會(huì )更多。
相反,Kappa 架構使用較少。因為Kappa架構只使用Kafka作為存儲組件,需要同時(shí)滿(mǎn)足數據完整性和實(shí)時(shí)讀寫(xiě),這顯然很難實(shí)現。
Kappa架構的實(shí)時(shí)數倉之路將何去何從?
4 數據湖與實(shí)時(shí)數據倉庫
我們理解Kafka的定位是消息隊列,可以作為熱點(diǎn)數據的緩存介質(zhì),但不適合數據的查詢(xún)和存儲。
如果我們能找到一個(gè)替代 Kafka 的實(shí)時(shí)數據庫就好了。.
預期要求
1)能夠支持數據回溯和數據更新
2)實(shí)現數據批量流式讀寫(xiě),支持實(shí)時(shí)訪(fǎng)問(wèn)
4.1 數據湖技術(shù)
近年來(lái),隨著(zhù)數據湖技術(shù)的興起,似乎出現了一線(xiàn)希望。
?。▓D源網(wǎng)絡(luò ))
目前市場(chǎng)上最流行的三種數據湖:Delta、Apache Hudi 和 Apache Iceberg。
其中Delta和Apache Hudi對大部分計算引擎的支持都不夠,尤其是Delta完全源自Spark,不支持Flink。
其中Iceberg和Flink已經(jīng)完全實(shí)現了對接機制??纯此奶攸c(diǎn):
4.2 kappa架構升級
因此,考慮升級Kappa架構。使用Flink+Iceberg(Hudi)技術(shù)架構可以解決Kappa架構中的一些問(wèn)題。
升級Kappa實(shí)時(shí)數倉流程
目前,Flink 社區對 Iceberg(Hudi)的構建已經(jīng)逐漸成熟,不少已經(jīng)開(kāi)始基于 Flink + Iceberg(Hudi)構建企業(yè)級實(shí)時(shí)數倉。
更多實(shí)時(shí)數倉問(wèn)題可以咨詢(xún)我的wx:youlong525。
5 電商零售實(shí)時(shí)數倉實(shí)踐
紙上談兵總是膚淺,這里簡(jiǎn)單介紹一下老手之前做過(guò)的實(shí)時(shí)數倉案例。
使用的技術(shù)??赡苡悬c(diǎn)老,主要討論構建思路。
5.1 技術(shù)架構
電商零售實(shí)時(shí)數倉技術(shù)架構
系統整體采用Flink+Spark+Kafka為主要技術(shù)棧,自下而上構建電商零售實(shí)時(shí)數據倉庫,最終提供統一的數據服務(wù)。
1)底層利用Flink CDC技術(shù)實(shí)時(shí)抽取源數據,包括業(yè)務(wù)系統和第三方嵌入式數據(客戶(hù)中心、營(yíng)銷(xiāo)中心、銷(xiāo)售中心)。
// data格式
{
"data": [
{
"id": "13",
"order_id": "6BB4837EB74E4568DDA7DC67ED2CA2AD9",
"order_code": "order_x001",
<p>
"price": "135.00"
}
]
}
// flink cdc (示例)
CREATE TABLE order_detail_table (
id BIGINT,
order_id STRING,
order_code STRING,
price DECIMAL(10, 2)
) WITH (
'connector' = 'kafka',
'topic' = 'order_binlog',
'properties.bootstrap.servers' = 'localhost:9092',
'properties.group.id' = 'group001',
'canal-json.ignore-parse-errors'='true'
);
</p>
2)數據源經(jīng)過(guò)計算引擎和決策引擎轉換,構建實(shí)時(shí)詳細、實(shí)時(shí)輕度匯總、實(shí)時(shí)高層匯總模型,對應數據倉庫層:DWD、DWS , ADS 層。
初步規劃技術(shù)棧為Spark Streaming + Kafka。后來(lái)由于實(shí)時(shí)性要求,改為Flink + Kafka來(lái)滿(mǎn)足秒級響應。
電商實(shí)時(shí)數倉處理流程圖
3)建立實(shí)時(shí)數據倉庫模型后,將數據傳輸到存儲介質(zhì)中。包括ES、Redis、Mysql、Kafka等,最終對外提供API共享服務(wù)訪(fǎng)問(wèn)。
// 存儲介質(zhì)API服務(wù)
val esServices = new EsHandler[BaseHandler](dataFlows)
val kafkaServices = new KafkaHandler[BaseHandler](dataFlows)
val redisServices = new RedisHandler[BaseHandler](dataFlows)
val jdbcServices = new JDBCHandler[BaseHandler](dataFlows)
esServices.handle(args)
kafkaServices.handle(args)
redisServices.handle(args)
jdbcServices.handle(args)
4)最后對外提供API服務(wù),為智能推薦、會(huì )員畫(huà)像、數據挖掘、營(yíng)銷(xiāo)大屏等應用服務(wù)提供數據支持。
5.2 數據流
電商實(shí)時(shí)數倉數據流圖
總體來(lái)說(shuō),從上到下,數據經(jīng)過(guò)采集 -> 數據倉庫詳細處理、匯總 -> 應用步驟,提供實(shí)時(shí)數據倉庫服務(wù)。
下面是用戶(hù)分析的數據流程和技術(shù)路線(xiàn):
采集用戶(hù)行為數據,統計用戶(hù)曝光和點(diǎn)擊信息,構建用戶(hù)畫(huà)像。
電商實(shí)時(shí)數倉用戶(hù)分析數據流程
6 實(shí)時(shí)數倉優(yōu)化總結
1)實(shí)時(shí)數倉是Lambda架構還是Kappa架構?
這個(gè)沒(méi)有標準答案。這里給個(gè)建議: 一般中小型項目可能需要保證歷史數據的完整性。推薦使用Lambda架構提供離線(xiàn)流程保障。目前Kappa架構用得不多,受場(chǎng)景和實(shí)時(shí)技術(shù)棧因素影響。
2)數據丟失了怎么辦?
如果數據源丟失,可以重新消費(偏移位置);如果Flink窗口數據有延遲:可以手動(dòng)增加延遲時(shí)間來(lái)延遲關(guān)閉窗口;或者使用side output stream將延遲的數據保存起來(lái),然后合并;也可以延遲數據寫(xiě)入存儲介質(zhì),以便后續統一處理。
3)實(shí)時(shí)計算中的數據重復怎么辦?
4)如何進(jìn)行多個(gè)實(shí)時(shí)流的JOIN
Flink 內部提供了 JOIN 算子操作,包括 JOIN、window JOIN、Interval Join、connect 等算子。具體可以參考我的Flink雙流JOIN文章。
5)如何調度實(shí)時(shí)任務(wù)和離線(xiàn)任務(wù)
給YARN任務(wù)打標簽,分離離線(xiàn)和實(shí)時(shí)任務(wù),提交作業(yè)時(shí)指定Label;同時(shí)調整Yarn調度參數,合理分配多個(gè)容器執行。
技巧:愛(ài)站SEO工具包使用異地排名操作方法
愛(ài)站 SEO 工具包值得
使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。1.打開(kāi)愛(ài)站工具包,您將在異地查看愛(ài)站 SEO 工具包值得
使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。
1.打開(kāi)愛(ài)站工具包,您將看到此工具用于站外排名。
2、點(diǎn)擊遠程查詢(xún),在搜索引擎中輸入你想找的搜索引擎,輸入你關(guān)鍵詞
想要在關(guān)鍵詞列中查找,在域名區域輸入域名地址,直接點(diǎn)擊查詢(xún),會(huì )看到可以查詢(xún)的結果,如圖所示: 查看全部
解決方案:漫畫(huà)趣解Flink實(shí)時(shí)數倉:搬橡果
1 底漆(移動(dòng)橡子)
入冬了,我和小伙伴們開(kāi)始囤年貨了。
今年干了半年多,我們收獲了一整車(chē)的橡子。我們小松鼠喜歡把這些心愛(ài)的橡子放在儲藏室里。
于是我今天早早起床,開(kāi)始搬這些橡子。
過(guò)了一會(huì )兒,慧慧突然告訴我,她想吃昨天摘的一個(gè)灰色的小橡子。
我看著(zhù)眼前堆積如山的年貨,苦惱地摸了摸自己的腦袋:等我搬到那個(gè)給你。
慧慧很不高興,嘀咕道:為什么我們昨天一脫下來(lái)就不能動(dòng)呢?
我解釋說(shuō):我們每年存的錢(qián)只夠買(mǎi)一輛車(chē)一起搬家嗎?
看著(zhù)一旁生氣的灰灰,我放慢了背的速度~
抬頭看著(zhù)高高的橡子堆,他嘆了口氣。他一邊拿著(zhù),一邊尋找自己想要的小橡子。. .
今天怕是走不動(dòng)了~
2 慢還是快?
總而言之,我們在故事中遇到了一些小煩惱:
關(guān)鍵詞:速度慢、體量大、時(shí)效性差、搜索快、溯源性差。.
帶著(zhù)這個(gè)小故事,我回到了本文的主題。
這些關(guān)鍵詞也是企業(yè)實(shí)時(shí)數倉建設中經(jīng)常遇到的一些困難和訴求。
2.1 企業(yè)實(shí)時(shí)數倉建設需求
大多數企業(yè)都面臨著(zhù)數據來(lái)源多、結構復雜的問(wèn)題。為了更好地管理數據和賦能價(jià)值,他們往往在集團和部門(mén)內部建立數據倉庫。
一般初期的數據倉庫開(kāi)發(fā)流程大致如下:
初始業(yè)務(wù)數據倉庫開(kāi)發(fā)過(guò)程
可以想象,隨著(zhù)業(yè)務(wù)需求的不斷增加,這種煙囪式的開(kāi)發(fā)模式會(huì )暴露出很多問(wèn)題:
為此,大量企業(yè)的數據團隊開(kāi)始規劃數據倉庫,對數據進(jìn)行分層。
數據倉庫分層架構
數據組織成分層存儲,每一層獨立處理。整體遵循自下而上的構建思路,最大限度地為數據賦能。
2.2 穩定的離線(xiàn)數據倉庫
商業(yè)場(chǎng)景
要求每天出具每日用戶(hù)訪(fǎng)問(wèn)PV和UV流量報表,并將結果輸出到業(yè)務(wù)數據庫
在前期的規劃中,在對實(shí)時(shí)數據要求不高的前提下,我們一開(kāi)始基本上會(huì )選擇搭建離線(xiàn)數倉。
離線(xiàn)數倉建設流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
既然知道了 Hive 的計算速度比較慢,但是我們又不想放棄它高效的存儲和查詢(xún)功能。
那我們試試另一個(gè)計算引擎:Spark。
Spark離線(xiàn)數倉流程
整體流程不變,主要是Spark負責o(wú)ds->dwd->dws層的數據處理。效果很明顯,比Hive計算快很多。
注意Spark是內存級別的計算引擎,需要合理規劃內存大小,防止OOM(內存泄漏)。
目前,兩個(gè)離線(xiàn)數倉完美滿(mǎn)足了業(yè)務(wù)需求。第二天領(lǐng)導看了報表統計,結果大家都很開(kāi)心~
現在考慮另一種場(chǎng)景:你不想等到第二天才能看到結果,你需要實(shí)時(shí)顯示指標。這時(shí)候就需要搭建一個(gè)實(shí)時(shí)數據倉庫。
3 冗余還是可追溯性?
商業(yè)場(chǎng)景
實(shí)時(shí)統計每秒用戶(hù)訪(fǎng)問(wèn)PV、UV流量報表,結果輸出到業(yè)務(wù)數據庫,支持歷史數據回顧
既然要求達到實(shí)時(shí)效果,首先要考慮優(yōu)化處理計算過(guò)程。因此,需要更換Spark,使用Flink計算引擎。
在技??術(shù)實(shí)現上,業(yè)界常用的實(shí)時(shí)數倉架構有兩種:Lambda架構和Kappa架構。
3.1 Lambda架構

顧名思義,Lambda架構保留了實(shí)時(shí)和離線(xiàn)兩種處理流程,即實(shí)時(shí)數倉和離線(xiàn)數倉最終會(huì )同時(shí)構建。
Lambda架構實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
針對同一個(gè)數據源被處理兩次這一點(diǎn),對上述Lambda架構進(jìn)行了改進(jìn)。
改進(jìn)的 Lambda 實(shí)時(shí)數據倉庫流程
通過(guò)定時(shí)刷新實(shí)時(shí)技術(shù)流各層計算結果到離線(xiàn)數倉,數據源唯一讀取。大大減少了數據的重復計算,加快了程序的運行時(shí)間。
總結:數據存儲,計算冗余;歷史數據可追溯
3.2 Kappa架構
為了解決上述模式下數據的冗余存儲和計算問(wèn)題,降低技術(shù)架構的復雜度,這里引入另一種模式:Kappa架構。
Kappa實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
總結:數據存儲只計算一次;史料難以追溯
總的來(lái)說(shuō),雖然第一種Lambda架構有很多缺點(diǎn),但它具有程序健壯性和數據完整性,所以在企業(yè)中使用會(huì )更多。
相反,Kappa 架構使用較少。因為Kappa架構只使用Kafka作為存儲組件,需要同時(shí)滿(mǎn)足數據完整性和實(shí)時(shí)讀寫(xiě),這顯然很難實(shí)現。
Kappa架構的實(shí)時(shí)數倉之路將何去何從?
4 數據湖與實(shí)時(shí)數據倉庫
我們理解Kafka的定位是消息隊列,可以作為熱點(diǎn)數據的緩存介質(zhì),但不適合數據的查詢(xún)和存儲。
如果我們能找到一個(gè)替代 Kafka 的實(shí)時(shí)數據庫就好了。.
預期要求
1)能夠支持數據回溯和數據更新
2)實(shí)現數據批量流式讀寫(xiě),支持實(shí)時(shí)訪(fǎng)問(wèn)
4.1 數據湖技術(shù)
近年來(lái),隨著(zhù)數據湖技術(shù)的興起,似乎出現了一線(xiàn)希望。
?。▓D源網(wǎng)絡(luò ))
目前市場(chǎng)上最流行的三種數據湖:Delta、Apache Hudi 和 Apache Iceberg。
其中Delta和Apache Hudi對大部分計算引擎的支持都不夠,尤其是Delta完全源自Spark,不支持Flink。
其中Iceberg和Flink已經(jīng)完全實(shí)現了對接機制??纯此奶攸c(diǎn):
4.2 kappa架構升級
因此,考慮升級Kappa架構。使用Flink+Iceberg(Hudi)技術(shù)架構可以解決Kappa架構中的一些問(wèn)題。
升級Kappa實(shí)時(shí)數倉流程
目前,Flink 社區對 Iceberg(Hudi)的構建已經(jīng)逐漸成熟,不少已經(jīng)開(kāi)始基于 Flink + Iceberg(Hudi)構建企業(yè)級實(shí)時(shí)數倉。
更多實(shí)時(shí)數倉問(wèn)題可以咨詢(xún)我的wx:youlong525。
5 電商零售實(shí)時(shí)數倉實(shí)踐
紙上談兵總是膚淺,這里簡(jiǎn)單介紹一下老手之前做過(guò)的實(shí)時(shí)數倉案例。
使用的技術(shù)??赡苡悬c(diǎn)老,主要討論構建思路。
5.1 技術(shù)架構
電商零售實(shí)時(shí)數倉技術(shù)架構
系統整體采用Flink+Spark+Kafka為主要技術(shù)棧,自下而上構建電商零售實(shí)時(shí)數據倉庫,最終提供統一的數據服務(wù)。
1)底層利用Flink CDC技術(shù)實(shí)時(shí)抽取源數據,包括業(yè)務(wù)系統和第三方嵌入式數據(客戶(hù)中心、營(yíng)銷(xiāo)中心、銷(xiāo)售中心)。
// data格式
{
"data": [
{
"id": "13",
"order_id": "6BB4837EB74E4568DDA7DC67ED2CA2AD9",
"order_code": "order_x001",
<p>

"price": "135.00"
}
]
}
// flink cdc (示例)
CREATE TABLE order_detail_table (
id BIGINT,
order_id STRING,
order_code STRING,
price DECIMAL(10, 2)
) WITH (
'connector' = 'kafka',
'topic' = 'order_binlog',
'properties.bootstrap.servers' = 'localhost:9092',
'properties.group.id' = 'group001',
'canal-json.ignore-parse-errors'='true'
);
</p>
2)數據源經(jīng)過(guò)計算引擎和決策引擎轉換,構建實(shí)時(shí)詳細、實(shí)時(shí)輕度匯總、實(shí)時(shí)高層匯總模型,對應數據倉庫層:DWD、DWS , ADS 層。
初步規劃技術(shù)棧為Spark Streaming + Kafka。后來(lái)由于實(shí)時(shí)性要求,改為Flink + Kafka來(lái)滿(mǎn)足秒級響應。
電商實(shí)時(shí)數倉處理流程圖
3)建立實(shí)時(shí)數據倉庫模型后,將數據傳輸到存儲介質(zhì)中。包括ES、Redis、Mysql、Kafka等,最終對外提供API共享服務(wù)訪(fǎng)問(wèn)。
// 存儲介質(zhì)API服務(wù)
val esServices = new EsHandler[BaseHandler](dataFlows)
val kafkaServices = new KafkaHandler[BaseHandler](dataFlows)
val redisServices = new RedisHandler[BaseHandler](dataFlows)
val jdbcServices = new JDBCHandler[BaseHandler](dataFlows)
esServices.handle(args)
kafkaServices.handle(args)
redisServices.handle(args)
jdbcServices.handle(args)
4)最后對外提供API服務(wù),為智能推薦、會(huì )員畫(huà)像、數據挖掘、營(yíng)銷(xiāo)大屏等應用服務(wù)提供數據支持。
5.2 數據流
電商實(shí)時(shí)數倉數據流圖
總體來(lái)說(shuō),從上到下,數據經(jīng)過(guò)采集 -> 數據倉庫詳細處理、匯總 -> 應用步驟,提供實(shí)時(shí)數據倉庫服務(wù)。
下面是用戶(hù)分析的數據流程和技術(shù)路線(xiàn):
采集用戶(hù)行為數據,統計用戶(hù)曝光和點(diǎn)擊信息,構建用戶(hù)畫(huà)像。
電商實(shí)時(shí)數倉用戶(hù)分析數據流程
6 實(shí)時(shí)數倉優(yōu)化總結
1)實(shí)時(shí)數倉是Lambda架構還是Kappa架構?
這個(gè)沒(méi)有標準答案。這里給個(gè)建議: 一般中小型項目可能需要保證歷史數據的完整性。推薦使用Lambda架構提供離線(xiàn)流程保障。目前Kappa架構用得不多,受場(chǎng)景和實(shí)時(shí)技術(shù)棧因素影響。
2)數據丟失了怎么辦?
如果數據源丟失,可以重新消費(偏移位置);如果Flink窗口數據有延遲:可以手動(dòng)增加延遲時(shí)間來(lái)延遲關(guān)閉窗口;或者使用side output stream將延遲的數據保存起來(lái),然后合并;也可以延遲數據寫(xiě)入存儲介質(zhì),以便后續統一處理。
3)實(shí)時(shí)計算中的數據重復怎么辦?
4)如何進(jìn)行多個(gè)實(shí)時(shí)流的JOIN
Flink 內部提供了 JOIN 算子操作,包括 JOIN、window JOIN、Interval Join、connect 等算子。具體可以參考我的Flink雙流JOIN文章。
5)如何調度實(shí)時(shí)任務(wù)和離線(xiàn)任務(wù)
給YARN任務(wù)打標簽,分離離線(xiàn)和實(shí)時(shí)任務(wù),提交作業(yè)時(shí)指定Label;同時(shí)調整Yarn調度參數,合理分配多個(gè)容器執行。
技巧:愛(ài)站SEO工具包使用異地排名操作方法
愛(ài)站 SEO 工具包值得
使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。1.打開(kāi)愛(ài)站工具包,您將在異地查看愛(ài)站 SEO 工具包值得

使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。
1.打開(kāi)愛(ài)站工具包,您將看到此工具用于站外排名。

2、點(diǎn)擊遠程查詢(xún),在搜索引擎中輸入你想找的搜索引擎,輸入你關(guān)鍵詞
想要在關(guān)鍵詞列中查找,在域名區域輸入域名地址,直接點(diǎn)擊查詢(xún),會(huì )看到可以查詢(xún)的結果,如圖所示:
分享文章:公眾號排版文章批量導出-免費公眾號文章批量導出排版
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 186 次瀏覽 ? 2022-12-06 05:43
作為一名自媒體編輯,我一直密切關(guān)注著(zhù)很多文章寫(xiě)的非常好的公眾號文章,每次都會(huì )學(xué)習他們的寫(xiě)作方法和思維方式。但是,每當我專(zhuān)心學(xué)習時(shí),在手機上一一檢查與文章的鏈接就比較麻煩了。這是一個(gè)令人頭疼的問(wèn)題,我想永遠在計算機上保存好文章。我相信很多人會(huì )和我一樣想。
如果可以將官方帳戶(hù)的所有歷史記錄文章下載到計算機上,那會(huì )更方便。
但是如何做一個(gè)小工具來(lái)實(shí)現這個(gè)功能,無(wú)疑是最方便的就是用Python寫(xiě)代碼,但對于大多數白人來(lái)說(shuō),這仍然是一個(gè)非常復雜的事件,如果為了批量下載微信文章還要刻意學(xué)習Python語(yǔ)言,成本太大了。
前段時(shí)間我自己寫(xiě)了一個(gè),微信公眾號文章搜索導出助手
自己用的效果還是很不錯的,微信文章圖片、視頻音樂(lè ),包括文章留言都做完了!
排版還是相當不錯的
內容分享:今日頭條一鍵采集器一鍵抓取頭條文章內容
本插件可用于在發(fā)帖頁(yè)面一鍵發(fā)采集今日頭條文章,支持圖片本地化,可設置使用的論壇和用戶(hù)組
兩個(gè)版本的區別
單機版:不依賴(lài)其他插件,購買(mǎi)后即可使用,支持論壇和門(mén)戶(hù)
非單機版:免費,但依賴(lài)今日頭條汽車(chē)采集插件,需先購買(mǎi)、下載安裝今日頭條汽車(chē)采集插件
評論:
本插件僅針對采集今日頭條、圖文資訊文章、圖片庫,不針對采集投票、視頻、問(wèn)答等。
本插件需要php支持curl,curl可以正常獲取https鏈接內容 查看全部
分享文章:公眾號排版文章批量導出-免費公眾號文章批量導出排版
作為一名自媒體編輯,我一直密切關(guān)注著(zhù)很多文章寫(xiě)的非常好的公眾號文章,每次都會(huì )學(xué)習他們的寫(xiě)作方法和思維方式。但是,每當我專(zhuān)心學(xué)習時(shí),在手機上一一檢查與文章的鏈接就比較麻煩了。這是一個(gè)令人頭疼的問(wèn)題,我想永遠在計算機上保存好文章。我相信很多人會(huì )和我一樣想。
如果可以將官方帳戶(hù)的所有歷史記錄文章下載到計算機上,那會(huì )更方便。
但是如何做一個(gè)小工具來(lái)實(shí)現這個(gè)功能,無(wú)疑是最方便的就是用Python寫(xiě)代碼,但對于大多數白人來(lái)說(shuō),這仍然是一個(gè)非常復雜的事件,如果為了批量下載微信文章還要刻意學(xué)習Python語(yǔ)言,成本太大了。

前段時(shí)間我自己寫(xiě)了一個(gè),微信公眾號文章搜索導出助手
自己用的效果還是很不錯的,微信文章圖片、視頻音樂(lè ),包括文章留言都做完了!

排版還是相當不錯的
內容分享:今日頭條一鍵采集器一鍵抓取頭條文章內容
本插件可用于在發(fā)帖頁(yè)面一鍵發(fā)采集今日頭條文章,支持圖片本地化,可設置使用的論壇和用戶(hù)組
兩個(gè)版本的區別
單機版:不依賴(lài)其他插件,購買(mǎi)后即可使用,支持論壇和門(mén)戶(hù)

非單機版:免費,但依賴(lài)今日頭條汽車(chē)采集插件,需先購買(mǎi)、下載安裝今日頭條汽車(chē)采集插件
評論:
本插件僅針對采集今日頭條、圖文資訊文章、圖片庫,不針對采集投票、視頻、問(wèn)答等。

本插件需要php支持curl,curl可以正常獲取https鏈接內容
測評:快優(yōu)助手和優(yōu)采云 采集器哪個(gè)好??jì)?yōu)采云 采集器和快優(yōu)助手對比
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 112 次瀏覽 ? 2022-12-02 17:46
采集器哪個(gè)好??jì)?yōu)采云
采集器和快優(yōu)助手對比
除了讓媒體號的運營(yíng)更簡(jiǎn)單,快游助手還可以輕松管理矩陣號,或者對單個(gè)號進(jìn)行深度運營(yíng)設計,是最好用的免費運營(yíng)工具之一。那么,快游助手和優(yōu)采云
采集器
哪個(gè)更好呢?針對這個(gè)問(wèn)題,今天小編為大家帶來(lái)了優(yōu)采云
采集器與快游助手的對比。
快游助手
快游助手是一款非常好用的自媒體運營(yíng)工具。每天可更新上百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容??煊沃肿屆襟w號的操作變得更簡(jiǎn)單,輕松管理矩陣號,或者單個(gè)大號的深度操作。
特征
1. 快速搜索/創(chuàng )造優(yōu)質(zhì)文章
每天更新超過(guò)百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容。
2.一站式賬號管理、素材采集、內容創(chuàng )作、數據分析運營(yíng)神器
所有平臺/所有終端/全部免費。
3. 快速分析/多維數據分析
多維數據,讓您每天了解最新的賬戶(hù)數據,助您寫(xiě)出爆款文章。
4.強大的編輯器創(chuàng )建和采集
素材,并根據文章推導符合新媒體機制的推薦關(guān)鍵詞
在線(xiàn)圖片搜索/精美款式/多維分析。
小編推薦:快游助手下載
優(yōu)采云
采集器
優(yōu)采云
Collector是谷歌原技術(shù)團隊打造的一款網(wǎng)頁(yè)數據采集
軟件??梢暬c(diǎn)擊,一鍵采集網(wǎng)頁(yè)數據。全平臺可用,Win/Mac/Linux,優(yōu)采云
采集設備的采集導出全部免費,無(wú)限制使用,可后臺運行,速度實(shí)時(shí)顯示。
特征
1.可視化定制采集流程
全程問(wèn)答指導,可視化操作,自定義采集流程。
自動(dòng)記錄和模擬網(wǎng)頁(yè)操作順序。
高級設置滿(mǎn)足更多采集
需求。
2.點(diǎn)擊提取網(wǎng)頁(yè)數據
鼠標點(diǎn)擊選擇要抓取的網(wǎng)頁(yè)內容,操作簡(jiǎn)單。
可選擇提取文本、鏈接、屬性、html 標簽等。
3.運行批量數據采集
軟件根據采集流程和提取規則自動(dòng)批量采集。
快速穩定,實(shí)時(shí)顯示采集速度和過(guò)程。
軟件可以切換到后臺運行,不影響前臺工作。
4.導出并發(fā)布采集
的數據
采集的數據自動(dòng)制表,字段自由配置。
支持數據導出到Excel等本地文件。
并一鍵發(fā)布到CMS網(wǎng)站/數據庫/微信公眾號等媒體。
小編推薦:優(yōu)采云
采集
下載
匯總:眾大云采集織夢(mèng)無(wú)限制
中大云采集
織夢(mèng)無(wú)限是一款非常好用的網(wǎng)頁(yè)數據采集
工具,可以幫助用戶(hù)采集
網(wǎng)頁(yè)的各種內容,通過(guò)關(guān)鍵詞搜索智能采集
相關(guān)信息和實(shí)時(shí)熱點(diǎn)。歡迎下載使用!
插件功能
1.中大云集可以批量注冊馬甲用戶(hù)。發(fā)帖人和評論使用馬甲,看起來(lái)和真實(shí)注冊用戶(hù)發(fā)的一模一樣。
2、中大云采集
可以批量采集發(fā)布,任何優(yōu)質(zhì)內容都可以在短時(shí)間內轉發(fā)到您的論壇和門(mén)戶(hù)。
3、中大云采集可定時(shí)采集自動(dòng)發(fā)布,實(shí)現無(wú)人值守。
4、采集內容可進(jìn)行簡(jiǎn)繁體轉換、偽原創(chuàng )等二次加工。
5、中大云采集支持前臺采集,可以授權指定普通注冊用戶(hù)在前臺使用本采集器,讓普通注冊會(huì )員幫你采集內容。
6、采集
的內容圖片可以正常顯示并保存為帖子圖片附件或傳送門(mén)文章附件,圖片永不丟失。
7、圖片附件支持遠程FTP存儲,讓您將圖片單獨存放到另一臺服務(wù)器上。
8. 圖片會(huì )加上您的論壇或門(mén)戶(hù)設置的水印。
9.已經(jīng)采集
的內容不會(huì )重復采集
,內容不會(huì )重復。
1、中大云發(fā)布的帖子或門(mén)戶(hù)文章、群組與真實(shí)用戶(hù)發(fā)布的完全一致,其他人無(wú)法知道是否使用采集器發(fā)帖。
11、瀏覽量會(huì )自動(dòng)隨機設置,感覺(jué)你的帖子或傳送門(mén)文章的瀏覽量和真實(shí)的一樣。
12、中大云集可以指定帖子發(fā)布者(樓主)、門(mén)戶(hù)文章作者、群發(fā)帖者。
13、采集
的內容可以發(fā)布到論壇任意版塊、門(mén)戶(hù)任意欄目、群任意圈子。
14、中大云集一鍵獲取當日實(shí)時(shí)熱點(diǎn)內容,一鍵發(fā)布。
15、不限制內容采集量和采集次數,讓您的網(wǎng)站快速充斥優(yōu)質(zhì)內容。
16.插件內置文本提取算法。前臺發(fā)布內容時(shí),輸入網(wǎng)址即可采集內容。 查看全部
測評:快優(yōu)助手和優(yōu)采云
采集器哪個(gè)好??jì)?yōu)采云
采集器和快優(yōu)助手對比
除了讓媒體號的運營(yíng)更簡(jiǎn)單,快游助手還可以輕松管理矩陣號,或者對單個(gè)號進(jìn)行深度運營(yíng)設計,是最好用的免費運營(yíng)工具之一。那么,快游助手和優(yōu)采云
采集器
哪個(gè)更好呢?針對這個(gè)問(wèn)題,今天小編為大家帶來(lái)了優(yōu)采云
采集器與快游助手的對比。
快游助手
快游助手是一款非常好用的自媒體運營(yíng)工具。每天可更新上百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容??煊沃肿屆襟w號的操作變得更簡(jiǎn)單,輕松管理矩陣號,或者單個(gè)大號的深度操作。
特征
1. 快速搜索/創(chuàng )造優(yōu)質(zhì)文章
每天更新超過(guò)百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容。
2.一站式賬號管理、素材采集、內容創(chuàng )作、數據分析運營(yíng)神器
所有平臺/所有終端/全部免費。
3. 快速分析/多維數據分析
多維數據,讓您每天了解最新的賬戶(hù)數據,助您寫(xiě)出爆款文章。

4.強大的編輯器創(chuàng )建和采集
素材,并根據文章推導符合新媒體機制的推薦關(guān)鍵詞
在線(xiàn)圖片搜索/精美款式/多維分析。
小編推薦:快游助手下載
優(yōu)采云
采集器
優(yōu)采云
Collector是谷歌原技術(shù)團隊打造的一款網(wǎng)頁(yè)數據采集
軟件??梢暬c(diǎn)擊,一鍵采集網(wǎng)頁(yè)數據。全平臺可用,Win/Mac/Linux,優(yōu)采云
采集設備的采集導出全部免費,無(wú)限制使用,可后臺運行,速度實(shí)時(shí)顯示。
特征
1.可視化定制采集流程
全程問(wèn)答指導,可視化操作,自定義采集流程。
自動(dòng)記錄和模擬網(wǎng)頁(yè)操作順序。
高級設置滿(mǎn)足更多采集
需求。
2.點(diǎn)擊提取網(wǎng)頁(yè)數據

鼠標點(diǎn)擊選擇要抓取的網(wǎng)頁(yè)內容,操作簡(jiǎn)單。
可選擇提取文本、鏈接、屬性、html 標簽等。
3.運行批量數據采集
軟件根據采集流程和提取規則自動(dòng)批量采集。
快速穩定,實(shí)時(shí)顯示采集速度和過(guò)程。
軟件可以切換到后臺運行,不影響前臺工作。
4.導出并發(fā)布采集
的數據
采集的數據自動(dòng)制表,字段自由配置。
支持數據導出到Excel等本地文件。
并一鍵發(fā)布到CMS網(wǎng)站/數據庫/微信公眾號等媒體。
小編推薦:優(yōu)采云
采集
下載
匯總:眾大云采集織夢(mèng)無(wú)限制
中大云采集
織夢(mèng)無(wú)限是一款非常好用的網(wǎng)頁(yè)數據采集
工具,可以幫助用戶(hù)采集
網(wǎng)頁(yè)的各種內容,通過(guò)關(guān)鍵詞搜索智能采集
相關(guān)信息和實(shí)時(shí)熱點(diǎn)。歡迎下載使用!
插件功能
1.中大云集可以批量注冊馬甲用戶(hù)。發(fā)帖人和評論使用馬甲,看起來(lái)和真實(shí)注冊用戶(hù)發(fā)的一模一樣。
2、中大云采集
可以批量采集發(fā)布,任何優(yōu)質(zhì)內容都可以在短時(shí)間內轉發(fā)到您的論壇和門(mén)戶(hù)。
3、中大云采集可定時(shí)采集自動(dòng)發(fā)布,實(shí)現無(wú)人值守。

4、采集內容可進(jìn)行簡(jiǎn)繁體轉換、偽原創(chuàng )等二次加工。
5、中大云采集支持前臺采集,可以授權指定普通注冊用戶(hù)在前臺使用本采集器,讓普通注冊會(huì )員幫你采集內容。
6、采集
的內容圖片可以正常顯示并保存為帖子圖片附件或傳送門(mén)文章附件,圖片永不丟失。
7、圖片附件支持遠程FTP存儲,讓您將圖片單獨存放到另一臺服務(wù)器上。
8. 圖片會(huì )加上您的論壇或門(mén)戶(hù)設置的水印。
9.已經(jīng)采集
的內容不會(huì )重復采集
,內容不會(huì )重復。
1、中大云發(fā)布的帖子或門(mén)戶(hù)文章、群組與真實(shí)用戶(hù)發(fā)布的完全一致,其他人無(wú)法知道是否使用采集器發(fā)帖。

11、瀏覽量會(huì )自動(dòng)隨機設置,感覺(jué)你的帖子或傳送門(mén)文章的瀏覽量和真實(shí)的一樣。
12、中大云集可以指定帖子發(fā)布者(樓主)、門(mén)戶(hù)文章作者、群發(fā)帖者。
13、采集
的內容可以發(fā)布到論壇任意版塊、門(mén)戶(hù)任意欄目、群任意圈子。
14、中大云集一鍵獲取當日實(shí)時(shí)熱點(diǎn)內容,一鍵發(fā)布。
15、不限制內容采集量和采集次數,讓您的網(wǎng)站快速充斥優(yōu)質(zhì)內容。
16.插件內置文本提取算法。前臺發(fā)布內容時(shí),輸入網(wǎng)址即可采集內容。
解決方案:【目標檢測】英雄聯(lián)盟能用YOLOv5實(shí)時(shí)目標檢測了 支持onnx推理
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 173 次瀏覽 ? 2022-11-30 10:53
目錄
一、項目介紹
dcmyolo(夢(mèng)想創(chuàng )造奇跡),中文:大智能物體檢測工具包。該項目基于pytorch構建。構建的目的是提供一個(gè)性能更好的YOLO版本。同時(shí)擁有豐富的中文教程和詳細的源碼解讀。提供了算法工具箱,給出了不同體積模型的實(shí)驗數據,為算法的實(shí)現提供了指導。來(lái)的方便。為了方便開(kāi)發(fā)者,項目開(kāi)箱即用。推理階段,直接把test dcmyolo目錄放到項目中,實(shí)例化一個(gè)類(lèi),然后調用。
很多教程都是基于coco和voc數據集,我也會(huì )提供基于coco數據集的預訓練模型。為了增加趣味性,我將以英雄聯(lián)盟中英雄、小兵、塔的檢測為例,詳細介紹dcmyolo的使用。
項目鏈接:
資料鏈接: 提取碼:faye
測試視頻: 提取碼:faye
預訓練模型: 提取碼:faye
標注工具: 提取碼:faye
效果演示:英雄聯(lián)盟可以使用YOLOv5實(shí)時(shí)目標檢測_英雄聯(lián)盟
2.項目結構
dcmyolo項目主目錄
+數據存儲訓練和測試數據
- dcmyolo實(shí)現了項目的所有核心功能,移植時(shí)直接測試該目錄即可
- 模型模型構建相關(guān)
+ backbone 各種backbone,目前只有CSPdarknet,未來(lái)會(huì )不斷豐富
yolo_body.py構建模型的類(lèi),實(shí)例化后使用
+ model_data 存儲模型文件
+ utils 工具類(lèi)
labelme2voc.py 將labelme的json文件轉為voc格式
voc2annotation_txt.py 將VOC格式轉換成項目需要的格式
make_anchors.py 生成數據集的anchors文件
train_dcmyolo.py 執行訓練
export.py 導出onnx等格式的文件
predict_dcmyolo.py 推理演示
predict_onnx.pypth 轉換onnx,onnx進(jìn)行推理demo
3.準備數據
我們需要制作三個(gè)文件train.txt、val.txt、test.txt,格式如下:
data/wangzhe/JPEGImages/1.jpg 910,504,1035,633,0 1759,113,1920,383,2
data/wangzhe/JPEGImages/10.jpg 805,189,1060,570,0 1,649,273,935,2 1636,70,1823,182,2
data/wangzhe/JPEGImages/100.jpg 896,258,1254,550,3
data/wangzhe/JPEGImages/101.jpg 869,416,1059,591,0 277,295,464,407,4 1024,311,1369,640,3
文件中一張圖片為一行,一行中的每條信息以空格分隔。第一塊是圖片存放的路徑。這里我們放在項目中的data/wangzhe/JPEGImages目錄下;其余幾塊表示方框的位置和類(lèi)別,每段用逗號分成5個(gè)部分,分別代表左上x(chóng)、左上y、右下x、右下y,以及所屬類(lèi)別的索引他們屬于哪個(gè)。
如果只有圖片,沒(méi)有標簽,我們需要進(jìn)行下面的數據標注和數據格式轉換步驟。這個(gè)過(guò)程非常簡(jiǎn)單,而且是體力勞動(dòng)。
如果使用開(kāi)源數據集,我們需要自己將數據集的標注文件轉換成上述格式,不需要下面的步驟。
如果你用的是我整理的英雄聯(lián)盟手游數據,直接下載數據解壓到項目的data目錄下,就可以直接使用了,不需要下面的步驟。
1、數據標注
這一步是用來(lái)制作我們自己的數據集的。我們使用 labelme 作為標注工具。標注好后,我們使用腳本將標注文件轉成voc格式,再從voc轉成我們需要的格式。上面是labelme的下載鏈接,解壓后使用方法如下:
?。?)雙擊main.exe打開(kāi)labelme
(2) 選擇要標注的圖片目錄。這里我準備了100多張英雄聯(lián)盟的截圖,比如項目中的data/wangzhe_org/目錄。
?。?)右側會(huì )列出該文件夾下的所有圖片,選擇一張圖片,在圖片區域右擊選擇矩形
?。?)選擇一個(gè)矩形框的目標(英雄),填寫(xiě)類(lèi)別名稱(chēng),點(diǎn)擊確定完成一個(gè)目標的標注。注意:一定要選擇從左上角到右下角的邊框;在同一張圖片中標記盡可能多的目標,不要錯過(guò)它們;同一類(lèi)別的名稱(chēng)必須相同,不同類(lèi)別的名稱(chēng)不能相同;類(lèi)別名稱(chēng)使用英文(區分大小寫(xiě)),無(wú)標點(diǎn)符號。
(5)標記一張圖片后,選擇下一張圖片時(shí),會(huì )提示保存json文件,保存到默認目錄即可,不要更改目錄。
2.數據轉換格式
我們已經(jīng)得到了labelme生成的json格式的標準文件,我們需要先將其轉換成VOC格式,然后再轉換成我們需要的格式。
(1) 轉換成VOC格式
執行工程中的labelme2voc.py文件,示例如下:
'''
data/wangzhe_org/: 存放原圖片和labelme生成的json文件的目錄
data/wangzhe/:? ? ? 目標目錄
labels:? ? ? ? ? ? ?存放所有列表標簽的文件,英雄聯(lián)盟的數據集標簽文件已經(jīng)放在項目的dcmyolo/model_data/wangzhe_classes.txt文件中
'''
python labelme2voc.py data/wangzhe_org/ data/wangzhe/ --labels dcmyolo/model_data/wangzhe_classes.txt
其中,dcmyolo/model_data/wangzhe_classes.txt文件,共有3種標簽文件如下:
Hero
Solider
Tower
VOC格式有以下4個(gè)文件,Annotations存放標簽文件,AnnotationsVisualization存放用方框標注的圖片,方便我們查看,JPEGImages存放圖片,class_names.txt存放所有類(lèi)別的標簽。接下來(lái)我們將只使用 Annotations 和 JPEGImages:
?。?)轉換工程需要的格式
執行項目中的voc2annotation_txt.py文件,示例如下:
'''
classes_path: ? ????存放標簽種類(lèi)的文件
data_dir: ? ????????存數據的目錄,寫(xiě)到Annotations上一級
trainval_percent: ? 用于指定(訓練集+驗證集)與測試集的比例,默認情況下 9:1
train_percent: ? ???用于指定(訓練集+驗證集)中訓練集與驗證集的比例,默認情況下 9:1
'''
python voc2annotation_txt.py --classes_path dcmyolo/model_data/wangzhe_classes.txt --data_dir data/wangzhe/ --trainval_percent 0.95 --train_percent 0.95
至此我們已經(jīng)生成了項目需要的標簽文件,可以進(jìn)行訓練了。
4.執行力訓練
所有數據文件和配置文件的文件名和目錄都是可以自定義的,下面我會(huì )按照自己的習慣存放這些文件。
1.錨文件
文件放在dcmyolo/model_data/wangzhe_classes.txt
原來(lái)yolov5提到的改進(jìn)之一就是不需要手動(dòng)生成anchors。事實(shí)上,生成anchor的方法在訓練之前就被丟棄了。我比較習慣手動(dòng)生成anchor,也不麻煩。
anchors的作用下一篇講原理的時(shí)候會(huì )提到,現在我們只需要生成即可,使用make_anchors.py生成:
'''
txt_path: 標注文件txt
anchors_path: anchors文件txt
clusters: 聚類(lèi)的數目,一般情況下是9
input_size: 模型中圖像的輸入尺寸
'''
python make_anchors.py --txt_path data/wangzhe/train.txt --anchors_path dcmyolo/model_data/wangzhe_anchors.txt --clusters 9 --input_size 640
生成的文件 wangzhe_anchors.txt 如下所示:
25,44,30,58,37,64,50,68,42,91,55,104,71,113,62,141,91,256
2.標簽文件
文件放在dcmyolo/model_data/wangzhe_classes.txt,內容是標注三類(lèi),每行一類(lèi):
Hero
Solider
Tower
3.預訓練模型
下載好預訓練模型后,解壓放到dcmyolo/model_data/下。
預訓練模型有兩種,backbone和yolov5。Backbone只是在imagenet上預訓練的分類(lèi)模型,yolov5是在coco數據集上訓練的yolov5模型。如果同時(shí)加載了backbone和yolov5預訓練模型,backbone參數會(huì )被覆蓋。yolov5預訓練模型收錄
了一些backbone沒(méi)有的卷積層。如果fine-tuning推薦使用yolov5預訓練模型,收斂會(huì )更快。
4.訓練數據
將上述數據集解壓,放到data目錄下。
如果是自己標注的數據,將三個(gè)核心文件train.txt、val.txt、test.txt放在data/wangzhe/目錄下,同時(shí)保證這三個(gè)文件中的圖片路徑正確. 結構如下,其中ImageSets目錄為臨時(shí)目錄,不用于訓練,可以省略。
5.修改配置
所有參數的定義和注釋如下,為了節省篇幅,去掉了之前的parser.add_argument:
('--classes_path', type=str, default='dcmyolo/model_data/coco_classes.txt', help="類(lèi)別標簽文件路徑")
('--anchors_path', type=str, default='dcmyolo/model_data/coco_anchors.txt', help="anchors文件路徑")
('--train_annotation_path', type=str, default='data/coco/train.txt', help="存放訓練集圖片路徑和標簽的txt")
('--val_annotation_path', type=str, default='data/coco/val.txt', help="存放驗證圖片路徑和標簽的txt")
('--phi', type=str, default='s', help="所使用的YoloV5的版本。n、s、m、l、x")
# ---------------------------------------------------------------------#
# --backbone_model_dir參數
# 如果有backbone的預訓練模型,可以backbone預訓練模型目錄,當model_path不存在的時(shí)候不加載整個(gè)模型的權值。
# 只寫(xiě)到模型文件的上一級目錄即可,文件名會(huì )根據phi自動(dòng)計算(前提是從百度網(wǎng)盤(pán)下載的模型文件名沒(méi)改)
# ---------------------------------------------------------------------#
('--backbone_model_dir', type=str, default='dcmyolo/model_data/', help="backbone的預訓練模型,寫(xiě)到上一級目錄即可")
('--model_path', type=str, default='dcmyolo/model_data/pretrained.pth', help="yolov5預訓練模型的路徑")
('--save_period', type=int, default=10, help="多少個(gè)epoch保存一次權值")
('--save_dir', type=str, default='logs_wangzhe', help="權值與日志文件保存的文件夾")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--use_fp16', action='store_true', help="是否使用混合精度訓練")
#------------------------------------------------------------------#
# mosaic 馬賽克數據增強。
# mosaic_prob 每個(gè)step有多少概率使用mosaic數據增強,默認50%。
#
# mixup 是否使用mixup數據增強,僅在mosaic=True時(shí)有效。
# 只會(huì )對mosaic增強后的圖片進(jìn)行mixup的處理。
# mixup_prob 有多少概率在mosaic后使用mixup數據增強,默認50%。
# 總的mixup概率為mosaic_prob * mixup_prob。
#
# special_aug_ratio 參考YoloX,由于Mosaic生成的訓練圖片,遠遠脫離自然圖片的真實(shí)分布。
# 當mosaic=True時(shí),本代碼會(huì )在special_aug_ratio范圍內開(kāi)啟mosaic。
# 默認為前70%個(gè)epoch,100個(gè)世代會(huì )開(kāi)啟70個(gè)世代。
#------------------------------------------------------------------#
('--use_mosaic', action='store_true', help="是否使用馬賽克數據增強")
('--mosaic_prob', type=float, default=0.5, help="每個(gè)step有多少概率使用mosaic數據增強")
('--use_mixup', action='store_true', help="是否使用mixup數據增強,僅在mosaic=True時(shí)有效")
('--mixup_prob', type=float, default=0.5, help="有多少概率在mosaic后使用mixup數據增強")
('--special_aug_ratio', type=float, default=0.7, help="當mosaic=True時(shí),會(huì )在該范圍內開(kāi)啟mosaic")
('--epoch', type=int, default=100, help="總迭代次數")
('--batch_size', type=int, default=128, help="每批次取多少張圖片")
('--label_smoothing', type=float, default=0, help="是否開(kāi)啟標簽平滑")
('--init_lr', type=float, default=1e-2, help="初始學(xué)習率")
('--min_lr', type=float, default=1e-4, help="最小學(xué)習率")
('--optimizer_type', type=str, default="sgd", help="使用到的優(yōu)化器種類(lèi),可選的有adam、sgd")
('--momentum', type=float, default=0.937, help="優(yōu)化器內部使用到的momentum參數")
('--weight_decay', type=float, default=5e-4, help="權值衰減,可防止過(guò)擬合")
('--lr_decay_type', type=str, default="step", help="使用到的學(xué)習率下降方式,可選的有step、cos")
('--eval_flag', action='store_true', help="是否在訓練時(shí)進(jìn)行評估,評估對象為驗證集")
('--eval_period', type=int, default=10, help="代表多少個(gè)epoch評估一次")
('--num_workers', type=int, default=4, help="多少個(gè)線(xiàn)程讀取數據")
示例腳本 train_dcmyolo.sh:
for i in $(ps -ax |grep train_dcmyolo |awk '{print $1}')
do
id=`echo $i |awk -F"/" '{print $1}'`
<p>
kill -9 $id
done
nohup python -u train_dcmyolo.py \
--classes_path dcmyolo/model_data/wangzhe_classes.txt \
--anchors_path dcmyolo/model_data/coco_anchors.txt \
--train_annotation_path data/wangzhe/train.txt \
--val_annotation_path data/wangzhe/val.txt \
--save_dir logs_wangzhe \
--phi s \
--backbone_model_dir dcmyolo/model_data \
--model_path dcmyolo/model_data/yolov5_s.pth \
--input_shape 640 640 \
--batch_size 4 \
--epoch 1000 \
--save_period 100 \
> log_train_dcmyolo.log &
tail -f log_train_dcmyolo.log
</p>
6.執行力訓練
執行以下腳本進(jìn)行訓練,訓練結果會(huì )放在logs_wangzhe目錄下。
./train_dcmyolo.sh
五、執行預測
推理和預測方法都在predict_dcmyolo.py中,可以檢測圖片、檢測視頻和熱圖。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.檢測圖片
檢測圖片,示例腳本如下:
python predict_dcmyolo.py --operation_type predict_image --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt
在控制臺輸入圖片路徑,會(huì )顯示檢測結果:
2.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_dcmyolo.py --operation_type predict_video --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --video_path data/video/wangzhe1.mp4 --video_save_path_path data/video/wangzhe1_out.mp4
3.熱圖
示例腳本如下:
python predict_dcmyolo.py --operation_type heatmap --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --heatmap_save_path data/heatmap.jpg
與檢測圖片類(lèi)似,在控制臺輸入圖片路徑,即可顯示熱圖??梢郧宄乜吹郊せ顓^域,證明模型確實(shí)很好地檢測到了目標。
5.轉換onnx
將模型導出為onnx格式,有利于模型加速,便于模型部署。所有onnx相關(guān)的方法都放在predict_onnx.py中??梢詫С鰋nnx文件,檢測圖片,檢測視頻。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.導出onnx文件
建議導出的onnx收錄
nms,這樣可以直接使用onnx輸出的結果,不需要程序進(jìn)行后期處理。加上--append_nms參數,可以讓聯(lián)通nms導出,onnx結果會(huì )報有指定的輸出路徑。示例腳本如下:
python predict_onnx.py --operation_type export_onnx --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --append_nms
2.檢測圖片
使用onnx模型檢測圖片,示例腳本如下:
python predict_onnx.py --operation_type predict_image --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt
在控制臺輸入圖片路徑,即可顯示檢測結果??梢钥吹給nnx和pytorch的結果是一致的。
3.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_onnx.py --operation_type predict_video --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt --video_path data/video/wangzhe1.mp4 --video_save_path data/video/wangzhe1_out1.mp4
英雄聯(lián)盟YOLOv5實(shí)時(shí)檢測的功能這里簡(jiǎn)單介紹一下。下一篇我會(huì )介紹YOLOv5的實(shí)現原理。dcmyolo項目會(huì )持續維護,會(huì )增加越來(lái)越多的功能,敬請期待。
解決方案:基于web的文章管理系統(完整源碼+論文全套+教學(xué)視頻)
實(shí)現一個(gè)web文章管理系統,也就是說(shuō)可以基于瀏覽器管理各種數據信息。也可以看作是一個(gè)B/S架構的文章管理系統。系統分為前后臺,實(shí)現在線(xiàn)操作,實(shí)現文章管理系統的各項功能,實(shí)現用戶(hù)管理、登錄注冊、權限管理等功能,管理與各種文章相關(guān)的實(shí)體管理系統。
文章管理系統是采用mvc設計模式開(kāi)發(fā)的B/S架構項目,采用分層架構對項目進(jìn)行架構,分為pojo+action+service,其中pojo表示文章的各個(gè)數據庫表對應的實(shí)體系統,文章管理系統經(jīng)過(guò)詳細的需求分析和數據庫設計,設計實(shí)現了以下模塊,分別是登錄模塊,權限管理模塊,用戶(hù)管理模塊,文章管理系統信息管理模塊等。并通過(guò)java實(shí)現抽象類(lèi)
開(kāi)發(fā)環(huán)境系統需求分析及流程圖
一般來(lái)說(shuō),這類(lèi)項目的主要目的是掌握基本的web開(kāi)發(fā)知識,所以在實(shí)施文章管理系統的課程設計時(shí),需要先采集
其他文章管理系統的產(chǎn)品分析,進(jìn)行深入的數據庫web系統的設計,并基于mvc模式編寫(xiě)代碼,使用layui搭建頁(yè)面,進(jìn)而完成文章管理系統各模塊的開(kāi)發(fā)
數據庫課程設計
數據庫設計是整個(gè)文章管理系統的關(guān)鍵。合理的數據庫設計直接影響文章管理系統能否完美運行不報錯。本系統采用mysql數據庫作為數據存儲,引擎采用innoddb。文章管理系統將按照數據庫設計原則進(jìn)行數據分表設計
系統演示視頻運行截圖
基于Web的文章管理系統-登錄功能接口-網(wǎng)站實(shí)現
基于Web的文章管理系統-前臺首頁(yè)-網(wǎng)頁(yè)設計
基于Web的文章管理系統-后臺信息管理頁(yè)面-網(wǎng)頁(yè)設計
文章管理系統系統架構圖
預防措施
基于web的文章管理系統項目自帶源碼、試卷、sql數據庫、答辯ppt、期中檢查報告
登錄地址:8080/login.jsp
后臺地址:8080/admin/login.jsp
測試用戶(hù)cswork admin bishe 密碼123456
測試管理員admin密碼admin bishe
函數列表
文章管理系統系統登錄模塊,實(shí)現文章管理系統的登錄注冊功能
文章管理系統用戶(hù)管理模塊實(shí)現文章管理系統的信息管理和角色管理功能
前臺信息管理模塊,面向普通用戶(hù),實(shí)現普通用戶(hù)對文章管理系統自定義查詢(xún)的錄入和修改
超級管理員管理,實(shí)現文章管理系統系統各模塊后臺管理員管理功能,同意核心數據最佳權限管理 查看全部
解決方案:【目標檢測】英雄聯(lián)盟能用YOLOv5實(shí)時(shí)目標檢測了 支持onnx推理
目錄
一、項目介紹
dcmyolo(夢(mèng)想創(chuàng )造奇跡),中文:大智能物體檢測工具包。該項目基于pytorch構建。構建的目的是提供一個(gè)性能更好的YOLO版本。同時(shí)擁有豐富的中文教程和詳細的源碼解讀。提供了算法工具箱,給出了不同體積模型的實(shí)驗數據,為算法的實(shí)現提供了指導。來(lái)的方便。為了方便開(kāi)發(fā)者,項目開(kāi)箱即用。推理階段,直接把test dcmyolo目錄放到項目中,實(shí)例化一個(gè)類(lèi),然后調用。
很多教程都是基于coco和voc數據集,我也會(huì )提供基于coco數據集的預訓練模型。為了增加趣味性,我將以英雄聯(lián)盟中英雄、小兵、塔的檢測為例,詳細介紹dcmyolo的使用。
項目鏈接:
資料鏈接: 提取碼:faye
測試視頻: 提取碼:faye
預訓練模型: 提取碼:faye
標注工具: 提取碼:faye
效果演示:英雄聯(lián)盟可以使用YOLOv5實(shí)時(shí)目標檢測_英雄聯(lián)盟
2.項目結構
dcmyolo項目主目錄
+數據存儲訓練和測試數據
- dcmyolo實(shí)現了項目的所有核心功能,移植時(shí)直接測試該目錄即可
- 模型模型構建相關(guān)
+ backbone 各種backbone,目前只有CSPdarknet,未來(lái)會(huì )不斷豐富
yolo_body.py構建模型的類(lèi),實(shí)例化后使用
+ model_data 存儲模型文件
+ utils 工具類(lèi)
labelme2voc.py 將labelme的json文件轉為voc格式
voc2annotation_txt.py 將VOC格式轉換成項目需要的格式
make_anchors.py 生成數據集的anchors文件
train_dcmyolo.py 執行訓練
export.py 導出onnx等格式的文件
predict_dcmyolo.py 推理演示
predict_onnx.pypth 轉換onnx,onnx進(jìn)行推理demo
3.準備數據
我們需要制作三個(gè)文件train.txt、val.txt、test.txt,格式如下:
data/wangzhe/JPEGImages/1.jpg 910,504,1035,633,0 1759,113,1920,383,2
data/wangzhe/JPEGImages/10.jpg 805,189,1060,570,0 1,649,273,935,2 1636,70,1823,182,2
data/wangzhe/JPEGImages/100.jpg 896,258,1254,550,3
data/wangzhe/JPEGImages/101.jpg 869,416,1059,591,0 277,295,464,407,4 1024,311,1369,640,3
文件中一張圖片為一行,一行中的每條信息以空格分隔。第一塊是圖片存放的路徑。這里我們放在項目中的data/wangzhe/JPEGImages目錄下;其余幾塊表示方框的位置和類(lèi)別,每段用逗號分成5個(gè)部分,分別代表左上x(chóng)、左上y、右下x、右下y,以及所屬類(lèi)別的索引他們屬于哪個(gè)。
如果只有圖片,沒(méi)有標簽,我們需要進(jìn)行下面的數據標注和數據格式轉換步驟。這個(gè)過(guò)程非常簡(jiǎn)單,而且是體力勞動(dòng)。
如果使用開(kāi)源數據集,我們需要自己將數據集的標注文件轉換成上述格式,不需要下面的步驟。
如果你用的是我整理的英雄聯(lián)盟手游數據,直接下載數據解壓到項目的data目錄下,就可以直接使用了,不需要下面的步驟。
1、數據標注
這一步是用來(lái)制作我們自己的數據集的。我們使用 labelme 作為標注工具。標注好后,我們使用腳本將標注文件轉成voc格式,再從voc轉成我們需要的格式。上面是labelme的下載鏈接,解壓后使用方法如下:
?。?)雙擊main.exe打開(kāi)labelme
(2) 選擇要標注的圖片目錄。這里我準備了100多張英雄聯(lián)盟的截圖,比如項目中的data/wangzhe_org/目錄。
?。?)右側會(huì )列出該文件夾下的所有圖片,選擇一張圖片,在圖片區域右擊選擇矩形
?。?)選擇一個(gè)矩形框的目標(英雄),填寫(xiě)類(lèi)別名稱(chēng),點(diǎn)擊確定完成一個(gè)目標的標注。注意:一定要選擇從左上角到右下角的邊框;在同一張圖片中標記盡可能多的目標,不要錯過(guò)它們;同一類(lèi)別的名稱(chēng)必須相同,不同類(lèi)別的名稱(chēng)不能相同;類(lèi)別名稱(chēng)使用英文(區分大小寫(xiě)),無(wú)標點(diǎn)符號。
(5)標記一張圖片后,選擇下一張圖片時(shí),會(huì )提示保存json文件,保存到默認目錄即可,不要更改目錄。
2.數據轉換格式
我們已經(jīng)得到了labelme生成的json格式的標準文件,我們需要先將其轉換成VOC格式,然后再轉換成我們需要的格式。
(1) 轉換成VOC格式
執行工程中的labelme2voc.py文件,示例如下:
'''
data/wangzhe_org/: 存放原圖片和labelme生成的json文件的目錄
data/wangzhe/:? ? ? 目標目錄
labels:? ? ? ? ? ? ?存放所有列表標簽的文件,英雄聯(lián)盟的數據集標簽文件已經(jīng)放在項目的dcmyolo/model_data/wangzhe_classes.txt文件中
'''
python labelme2voc.py data/wangzhe_org/ data/wangzhe/ --labels dcmyolo/model_data/wangzhe_classes.txt
其中,dcmyolo/model_data/wangzhe_classes.txt文件,共有3種標簽文件如下:
Hero
Solider
Tower
VOC格式有以下4個(gè)文件,Annotations存放標簽文件,AnnotationsVisualization存放用方框標注的圖片,方便我們查看,JPEGImages存放圖片,class_names.txt存放所有類(lèi)別的標簽。接下來(lái)我們將只使用 Annotations 和 JPEGImages:
?。?)轉換工程需要的格式
執行項目中的voc2annotation_txt.py文件,示例如下:
'''
classes_path: ? ????存放標簽種類(lèi)的文件
data_dir: ? ????????存數據的目錄,寫(xiě)到Annotations上一級
trainval_percent: ? 用于指定(訓練集+驗證集)與測試集的比例,默認情況下 9:1
train_percent: ? ???用于指定(訓練集+驗證集)中訓練集與驗證集的比例,默認情況下 9:1
'''
python voc2annotation_txt.py --classes_path dcmyolo/model_data/wangzhe_classes.txt --data_dir data/wangzhe/ --trainval_percent 0.95 --train_percent 0.95
至此我們已經(jīng)生成了項目需要的標簽文件,可以進(jìn)行訓練了。
4.執行力訓練
所有數據文件和配置文件的文件名和目錄都是可以自定義的,下面我會(huì )按照自己的習慣存放這些文件。

1.錨文件
文件放在dcmyolo/model_data/wangzhe_classes.txt
原來(lái)yolov5提到的改進(jìn)之一就是不需要手動(dòng)生成anchors。事實(shí)上,生成anchor的方法在訓練之前就被丟棄了。我比較習慣手動(dòng)生成anchor,也不麻煩。
anchors的作用下一篇講原理的時(shí)候會(huì )提到,現在我們只需要生成即可,使用make_anchors.py生成:
'''
txt_path: 標注文件txt
anchors_path: anchors文件txt
clusters: 聚類(lèi)的數目,一般情況下是9
input_size: 模型中圖像的輸入尺寸
'''
python make_anchors.py --txt_path data/wangzhe/train.txt --anchors_path dcmyolo/model_data/wangzhe_anchors.txt --clusters 9 --input_size 640
生成的文件 wangzhe_anchors.txt 如下所示:
25,44,30,58,37,64,50,68,42,91,55,104,71,113,62,141,91,256
2.標簽文件
文件放在dcmyolo/model_data/wangzhe_classes.txt,內容是標注三類(lèi),每行一類(lèi):
Hero
Solider
Tower
3.預訓練模型
下載好預訓練模型后,解壓放到dcmyolo/model_data/下。
預訓練模型有兩種,backbone和yolov5。Backbone只是在imagenet上預訓練的分類(lèi)模型,yolov5是在coco數據集上訓練的yolov5模型。如果同時(shí)加載了backbone和yolov5預訓練模型,backbone參數會(huì )被覆蓋。yolov5預訓練模型收錄
了一些backbone沒(méi)有的卷積層。如果fine-tuning推薦使用yolov5預訓練模型,收斂會(huì )更快。
4.訓練數據
將上述數據集解壓,放到data目錄下。
如果是自己標注的數據,將三個(gè)核心文件train.txt、val.txt、test.txt放在data/wangzhe/目錄下,同時(shí)保證這三個(gè)文件中的圖片路徑正確. 結構如下,其中ImageSets目錄為臨時(shí)目錄,不用于訓練,可以省略。
5.修改配置
所有參數的定義和注釋如下,為了節省篇幅,去掉了之前的parser.add_argument:
('--classes_path', type=str, default='dcmyolo/model_data/coco_classes.txt', help="類(lèi)別標簽文件路徑")
('--anchors_path', type=str, default='dcmyolo/model_data/coco_anchors.txt', help="anchors文件路徑")
('--train_annotation_path', type=str, default='data/coco/train.txt', help="存放訓練集圖片路徑和標簽的txt")
('--val_annotation_path', type=str, default='data/coco/val.txt', help="存放驗證圖片路徑和標簽的txt")
('--phi', type=str, default='s', help="所使用的YoloV5的版本。n、s、m、l、x")
# ---------------------------------------------------------------------#
# --backbone_model_dir參數
# 如果有backbone的預訓練模型,可以backbone預訓練模型目錄,當model_path不存在的時(shí)候不加載整個(gè)模型的權值。
# 只寫(xiě)到模型文件的上一級目錄即可,文件名會(huì )根據phi自動(dòng)計算(前提是從百度網(wǎng)盤(pán)下載的模型文件名沒(méi)改)
# ---------------------------------------------------------------------#
('--backbone_model_dir', type=str, default='dcmyolo/model_data/', help="backbone的預訓練模型,寫(xiě)到上一級目錄即可")
('--model_path', type=str, default='dcmyolo/model_data/pretrained.pth', help="yolov5預訓練模型的路徑")
('--save_period', type=int, default=10, help="多少個(gè)epoch保存一次權值")
('--save_dir', type=str, default='logs_wangzhe', help="權值與日志文件保存的文件夾")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--use_fp16', action='store_true', help="是否使用混合精度訓練")
#------------------------------------------------------------------#
# mosaic 馬賽克數據增強。
# mosaic_prob 每個(gè)step有多少概率使用mosaic數據增強,默認50%。
#
# mixup 是否使用mixup數據增強,僅在mosaic=True時(shí)有效。
# 只會(huì )對mosaic增強后的圖片進(jìn)行mixup的處理。
# mixup_prob 有多少概率在mosaic后使用mixup數據增強,默認50%。
# 總的mixup概率為mosaic_prob * mixup_prob。
#
# special_aug_ratio 參考YoloX,由于Mosaic生成的訓練圖片,遠遠脫離自然圖片的真實(shí)分布。
# 當mosaic=True時(shí),本代碼會(huì )在special_aug_ratio范圍內開(kāi)啟mosaic。
# 默認為前70%個(gè)epoch,100個(gè)世代會(huì )開(kāi)啟70個(gè)世代。
#------------------------------------------------------------------#
('--use_mosaic', action='store_true', help="是否使用馬賽克數據增強")
('--mosaic_prob', type=float, default=0.5, help="每個(gè)step有多少概率使用mosaic數據增強")
('--use_mixup', action='store_true', help="是否使用mixup數據增強,僅在mosaic=True時(shí)有效")
('--mixup_prob', type=float, default=0.5, help="有多少概率在mosaic后使用mixup數據增強")
('--special_aug_ratio', type=float, default=0.7, help="當mosaic=True時(shí),會(huì )在該范圍內開(kāi)啟mosaic")
('--epoch', type=int, default=100, help="總迭代次數")
('--batch_size', type=int, default=128, help="每批次取多少張圖片")
('--label_smoothing', type=float, default=0, help="是否開(kāi)啟標簽平滑")
('--init_lr', type=float, default=1e-2, help="初始學(xué)習率")
('--min_lr', type=float, default=1e-4, help="最小學(xué)習率")
('--optimizer_type', type=str, default="sgd", help="使用到的優(yōu)化器種類(lèi),可選的有adam、sgd")
('--momentum', type=float, default=0.937, help="優(yōu)化器內部使用到的momentum參數")
('--weight_decay', type=float, default=5e-4, help="權值衰減,可防止過(guò)擬合")
('--lr_decay_type', type=str, default="step", help="使用到的學(xué)習率下降方式,可選的有step、cos")
('--eval_flag', action='store_true', help="是否在訓練時(shí)進(jìn)行評估,評估對象為驗證集")
('--eval_period', type=int, default=10, help="代表多少個(gè)epoch評估一次")
('--num_workers', type=int, default=4, help="多少個(gè)線(xiàn)程讀取數據")
示例腳本 train_dcmyolo.sh:
for i in $(ps -ax |grep train_dcmyolo |awk '{print $1}')
do
id=`echo $i |awk -F"/" '{print $1}'`
<p>

kill -9 $id
done
nohup python -u train_dcmyolo.py \
--classes_path dcmyolo/model_data/wangzhe_classes.txt \
--anchors_path dcmyolo/model_data/coco_anchors.txt \
--train_annotation_path data/wangzhe/train.txt \
--val_annotation_path data/wangzhe/val.txt \
--save_dir logs_wangzhe \
--phi s \
--backbone_model_dir dcmyolo/model_data \
--model_path dcmyolo/model_data/yolov5_s.pth \
--input_shape 640 640 \
--batch_size 4 \
--epoch 1000 \
--save_period 100 \
> log_train_dcmyolo.log &
tail -f log_train_dcmyolo.log
</p>
6.執行力訓練
執行以下腳本進(jìn)行訓練,訓練結果會(huì )放在logs_wangzhe目錄下。
./train_dcmyolo.sh
五、執行預測
推理和預測方法都在predict_dcmyolo.py中,可以檢測圖片、檢測視頻和熱圖。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.檢測圖片
檢測圖片,示例腳本如下:
python predict_dcmyolo.py --operation_type predict_image --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt
在控制臺輸入圖片路徑,會(huì )顯示檢測結果:
2.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_dcmyolo.py --operation_type predict_video --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --video_path data/video/wangzhe1.mp4 --video_save_path_path data/video/wangzhe1_out.mp4
3.熱圖
示例腳本如下:
python predict_dcmyolo.py --operation_type heatmap --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --heatmap_save_path data/heatmap.jpg
與檢測圖片類(lèi)似,在控制臺輸入圖片路徑,即可顯示熱圖??梢郧宄乜吹郊せ顓^域,證明模型確實(shí)很好地檢測到了目標。
5.轉換onnx
將模型導出為onnx格式,有利于模型加速,便于模型部署。所有onnx相關(guān)的方法都放在predict_onnx.py中??梢詫С鰋nnx文件,檢測圖片,檢測視頻。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.導出onnx文件
建議導出的onnx收錄
nms,這樣可以直接使用onnx輸出的結果,不需要程序進(jìn)行后期處理。加上--append_nms參數,可以讓聯(lián)通nms導出,onnx結果會(huì )報有指定的輸出路徑。示例腳本如下:
python predict_onnx.py --operation_type export_onnx --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --append_nms
2.檢測圖片
使用onnx模型檢測圖片,示例腳本如下:
python predict_onnx.py --operation_type predict_image --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt
在控制臺輸入圖片路徑,即可顯示檢測結果??梢钥吹給nnx和pytorch的結果是一致的。
3.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_onnx.py --operation_type predict_video --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt --video_path data/video/wangzhe1.mp4 --video_save_path data/video/wangzhe1_out1.mp4
英雄聯(lián)盟YOLOv5實(shí)時(shí)檢測的功能這里簡(jiǎn)單介紹一下。下一篇我會(huì )介紹YOLOv5的實(shí)現原理。dcmyolo項目會(huì )持續維護,會(huì )增加越來(lái)越多的功能,敬請期待。
解決方案:基于web的文章管理系統(完整源碼+論文全套+教學(xué)視頻)
實(shí)現一個(gè)web文章管理系統,也就是說(shuō)可以基于瀏覽器管理各種數據信息。也可以看作是一個(gè)B/S架構的文章管理系統。系統分為前后臺,實(shí)現在線(xiàn)操作,實(shí)現文章管理系統的各項功能,實(shí)現用戶(hù)管理、登錄注冊、權限管理等功能,管理與各種文章相關(guān)的實(shí)體管理系統。
文章管理系統是采用mvc設計模式開(kāi)發(fā)的B/S架構項目,采用分層架構對項目進(jìn)行架構,分為pojo+action+service,其中pojo表示文章的各個(gè)數據庫表對應的實(shí)體系統,文章管理系統經(jīng)過(guò)詳細的需求分析和數據庫設計,設計實(shí)現了以下模塊,分別是登錄模塊,權限管理模塊,用戶(hù)管理模塊,文章管理系統信息管理模塊等。并通過(guò)java實(shí)現抽象類(lèi)
開(kāi)發(fā)環(huán)境系統需求分析及流程圖
一般來(lái)說(shuō),這類(lèi)項目的主要目的是掌握基本的web開(kāi)發(fā)知識,所以在實(shí)施文章管理系統的課程設計時(shí),需要先采集
其他文章管理系統的產(chǎn)品分析,進(jìn)行深入的數據庫web系統的設計,并基于mvc模式編寫(xiě)代碼,使用layui搭建頁(yè)面,進(jìn)而完成文章管理系統各模塊的開(kāi)發(fā)
數據庫課程設計
數據庫設計是整個(gè)文章管理系統的關(guān)鍵。合理的數據庫設計直接影響文章管理系統能否完美運行不報錯。本系統采用mysql數據庫作為數據存儲,引擎采用innoddb。文章管理系統將按照數據庫設計原則進(jìn)行數據分表設計
系統演示視頻運行截圖
基于Web的文章管理系統-登錄功能接口-網(wǎng)站實(shí)現

基于Web的文章管理系統-前臺首頁(yè)-網(wǎng)頁(yè)設計
基于Web的文章管理系統-后臺信息管理頁(yè)面-網(wǎng)頁(yè)設計
文章管理系統系統架構圖
預防措施
基于web的文章管理系統項目自帶源碼、試卷、sql數據庫、答辯ppt、期中檢查報告

登錄地址:8080/login.jsp
后臺地址:8080/admin/login.jsp
測試用戶(hù)cswork admin bishe 密碼123456
測試管理員admin密碼admin bishe
函數列表
文章管理系統系統登錄模塊,實(shí)現文章管理系統的登錄注冊功能
文章管理系統用戶(hù)管理模塊實(shí)現文章管理系統的信息管理和角色管理功能
前臺信息管理模塊,面向普通用戶(hù),實(shí)現普通用戶(hù)對文章管理系統自定義查詢(xún)的錄入和修改
超級管理員管理,實(shí)現文章管理系統系統各模塊后臺管理員管理功能,同意核心數據最佳權限管理
技巧:設計師必備能力之文章分類(lèi)法與文章聚合法介紹
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 95 次瀏覽 ? 2022-11-29 22:29
實(shí)時(shí)文章采集能力是設計師必備能力之一,今天我們將重點(diǎn)介紹兩種實(shí)時(shí)文章采集方法:文章分類(lèi)法與文章聚合法。
1、我們首先介紹兩種文章分類(lèi)法:文章分類(lèi)法與文章聚合法,在講述文章分類(lèi)法之前,我們先做一個(gè)簡(jiǎn)單的自測題:這兩類(lèi)文章分類(lèi)法有哪些區別?哪些場(chǎng)景適合使用?如果已經(jīng)有自己的文章分類(lèi)結果,請直接跳到文章分類(lèi)法部分。
2、在正式講解這兩種文章分類(lèi)法之前,我們先來(lái)了解一下互聯(lián)網(wǎng)上的自然搜索引擎算法,接下來(lái)你會(huì )發(fā)現文章分類(lèi)法會(huì )幫你省去很多力氣,如果有疑問(wèn)可以關(guān)注公眾號:曉講講,回復互聯(lián)網(wǎng)自然搜索引擎算法你將了解互聯(lián)網(wǎng)搜索算法,我們將此部分展開(kāi)講解。自然搜索引擎算法涉及了三大信息源:「社交網(wǎng)絡(luò )平臺」「第三方廣告平臺」「搜索引擎」。
這三大信息源是構成搜索引擎流量的主要來(lái)源,如何在這三大信息源中獲取我們想要的資源,我們要先有一個(gè)大致的框架,我們將接下來(lái)重點(diǎn)講解三大信息源,為何采用自然搜索引擎搜索引擎分類(lèi)的方法,因為這樣的方法可以達到更高的搜索效率。
3、以今日頭條為例,我們看看怎么在今日頭條上建立自己的文章搜索庫,了解如何在一個(gè)信息流平臺上更容易建立自己的文章搜索庫。
4、我們知道,自然搜索引擎平臺的aso算法中,最重要的組成部分就是信息流頁(yè)面位置,我們先看下如何從一個(gè)信息流頁(yè)面,獲取精準的aso排名。由于今日頭條是一個(gè)信息流平臺,所以我們先將位置進(jìn)行劃分:「低跳出率」「高點(diǎn)擊率」「高app轉化率」「精準度」、「轉化率」、「時(shí)長(cháng)」、「用戶(hù)來(lái)源」、「來(lái)源獲取成本」、「時(shí)長(cháng)成本」、「廣告點(diǎn)擊率」、「單純依靠點(diǎn)擊獲取收益」、「其他」。
在這個(gè)表格中,紅色數據是用戶(hù)獲取廣告點(diǎn)擊的成本,如果想獲取更多的廣告點(diǎn)擊,則需要付出更多的廣告點(diǎn)擊率。這里我們再舉個(gè)栗子,假設我們獲取了1000個(gè)廣告點(diǎn)擊,但我們獲取的不是我們的第一批用戶(hù),而是第0個(gè)用戶(hù)。
5、想獲取更多的第一批用戶(hù),我們需要考慮app的周轉率,因為廣告點(diǎn)擊率會(huì )影響app的周轉率,這里我們拿今日頭條來(lái)舉例,我們廣告獲取的是用戶(hù),但不會(huì )給用戶(hù)直接安裝app,
6、想保證用戶(hù)的安裝率,只有兩種可能,要么你獲取到的用戶(hù)很有可能是它們想要的,或者你獲取到的用戶(hù)很有可能是一個(gè)潛在的有價(jià)值的用戶(hù)。
7、為什么如此重要?
8、通過(guò)文章分類(lèi)法,我們找到了你想要的文章,但如果我們獲取的用戶(hù)或者文章很多,
9、那么如何在一 查看全部
技巧:設計師必備能力之文章分類(lèi)法與文章聚合法介紹
實(shí)時(shí)文章采集能力是設計師必備能力之一,今天我們將重點(diǎn)介紹兩種實(shí)時(shí)文章采集方法:文章分類(lèi)法與文章聚合法。
1、我們首先介紹兩種文章分類(lèi)法:文章分類(lèi)法與文章聚合法,在講述文章分類(lèi)法之前,我們先做一個(gè)簡(jiǎn)單的自測題:這兩類(lèi)文章分類(lèi)法有哪些區別?哪些場(chǎng)景適合使用?如果已經(jīng)有自己的文章分類(lèi)結果,請直接跳到文章分類(lèi)法部分。
2、在正式講解這兩種文章分類(lèi)法之前,我們先來(lái)了解一下互聯(lián)網(wǎng)上的自然搜索引擎算法,接下來(lái)你會(huì )發(fā)現文章分類(lèi)法會(huì )幫你省去很多力氣,如果有疑問(wèn)可以關(guān)注公眾號:曉講講,回復互聯(lián)網(wǎng)自然搜索引擎算法你將了解互聯(lián)網(wǎng)搜索算法,我們將此部分展開(kāi)講解。自然搜索引擎算法涉及了三大信息源:「社交網(wǎng)絡(luò )平臺」「第三方廣告平臺」「搜索引擎」。

這三大信息源是構成搜索引擎流量的主要來(lái)源,如何在這三大信息源中獲取我們想要的資源,我們要先有一個(gè)大致的框架,我們將接下來(lái)重點(diǎn)講解三大信息源,為何采用自然搜索引擎搜索引擎分類(lèi)的方法,因為這樣的方法可以達到更高的搜索效率。
3、以今日頭條為例,我們看看怎么在今日頭條上建立自己的文章搜索庫,了解如何在一個(gè)信息流平臺上更容易建立自己的文章搜索庫。
4、我們知道,自然搜索引擎平臺的aso算法中,最重要的組成部分就是信息流頁(yè)面位置,我們先看下如何從一個(gè)信息流頁(yè)面,獲取精準的aso排名。由于今日頭條是一個(gè)信息流平臺,所以我們先將位置進(jìn)行劃分:「低跳出率」「高點(diǎn)擊率」「高app轉化率」「精準度」、「轉化率」、「時(shí)長(cháng)」、「用戶(hù)來(lái)源」、「來(lái)源獲取成本」、「時(shí)長(cháng)成本」、「廣告點(diǎn)擊率」、「單純依靠點(diǎn)擊獲取收益」、「其他」。
在這個(gè)表格中,紅色數據是用戶(hù)獲取廣告點(diǎn)擊的成本,如果想獲取更多的廣告點(diǎn)擊,則需要付出更多的廣告點(diǎn)擊率。這里我們再舉個(gè)栗子,假設我們獲取了1000個(gè)廣告點(diǎn)擊,但我們獲取的不是我們的第一批用戶(hù),而是第0個(gè)用戶(hù)。

5、想獲取更多的第一批用戶(hù),我們需要考慮app的周轉率,因為廣告點(diǎn)擊率會(huì )影響app的周轉率,這里我們拿今日頭條來(lái)舉例,我們廣告獲取的是用戶(hù),但不會(huì )給用戶(hù)直接安裝app,
6、想保證用戶(hù)的安裝率,只有兩種可能,要么你獲取到的用戶(hù)很有可能是它們想要的,或者你獲取到的用戶(hù)很有可能是一個(gè)潛在的有價(jià)值的用戶(hù)。
7、為什么如此重要?
8、通過(guò)文章分類(lèi)法,我們找到了你想要的文章,但如果我們獲取的用戶(hù)或者文章很多,
9、那么如何在一
推薦文章:優(yōu)采云 采集的文章中html標簽在帖子中不顯示格式
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 100 次瀏覽 ? 2022-11-27 04:23
采集的文章中html標簽在帖子中不顯示格式
優(yōu)采云
采集文章中的html標簽在帖子中不顯示格式100
使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,
標簽不換行。默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。點(diǎn)擊Edit Post...使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,
標簽不換行。
默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。
點(diǎn)擊編輯帖子,編輯頁(yè)面無(wú)需人工干預,格式自動(dòng)顯示,保存后和第二張圖一樣。
請問(wèn),如何讓帖子自動(dòng)顯示html標簽的格式,而不用編輯帖子,即采集的帖子頁(yè)面會(huì )直接像第二張圖一樣?
?、屛一卮?br /> 您可以在下方選擇一個(gè)或多個(gè)關(guān)鍵詞搜索相關(guān)信息。您也可以直接點(diǎn)擊“搜索信息”搜索整題。
最新版:優(yōu)采云
采集器最新免費版
優(yōu)采云
采集器最新免費版是一款非常實(shí)用的數據采集器,基于人工智能技術(shù),可以自動(dòng)識別采集內容!界面簡(jiǎn)潔大方,符合手動(dòng)瀏覽的思維方式,任務(wù)數量不限,喜歡的內容自由導出,保存Excel、TXT格式并導出到本地,可視化操作,自定義采集流程,網(wǎng)頁(yè)數據即可輕松采集
,而且采集
網(wǎng)址數量沒(méi)有限制!
軟件特色
1、智能識別列表,鏡像下載次數不限,從文件導入url,批量生成url
2.手動(dòng)輸入url,任務(wù)數量不限,支持云存儲,以HTML格式導出到本地
3、一鍵采集數據,可模擬人的操作過(guò)程,滾動(dòng)頁(yè)面,等待加載
軟件亮點(diǎn)
1.模擬網(wǎng)頁(yè)操作順序,高級設置滿(mǎn)足更多采集
需求
2.支持多任務(wù)同時(shí)運行,切換端同步更新
3.根據軟件提示點(diǎn)擊頁(yè)面,結合條件篩選采集字段
4.問(wèn)答引導,可視化操作,數據庫發(fā)布到本地或云端服務(wù)器
軟件優(yōu)勢
1.簡(jiǎn)單步驟生成復雜采集規則,導出發(fā)布采集數據
2、自動(dòng)導出、文件下載、自動(dòng)生成復雜的數據采集規則
3、自定義采集流程,提供企業(yè)級服務(wù),可選擇提取文本、鏈接、屬性
用戶(hù)評價(jià)
根據軟件給出的提示,結合智能識別算法,操作簡(jiǎn)單,在效率上滿(mǎn)足采集要求。 查看全部
推薦文章:優(yōu)采云
采集的文章中html標簽在帖子中不顯示格式
優(yōu)采云
采集文章中的html標簽在帖子中不顯示格式100
使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,
標簽不換行。默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。點(diǎn)擊Edit Post...使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,

標簽不換行。
默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。
點(diǎn)擊編輯帖子,編輯頁(yè)面無(wú)需人工干預,格式自動(dòng)顯示,保存后和第二張圖一樣。
請問(wèn),如何讓帖子自動(dòng)顯示html標簽的格式,而不用編輯帖子,即采集的帖子頁(yè)面會(huì )直接像第二張圖一樣?

?、屛一卮?br /> 您可以在下方選擇一個(gè)或多個(gè)關(guān)鍵詞搜索相關(guān)信息。您也可以直接點(diǎn)擊“搜索信息”搜索整題。
最新版:優(yōu)采云
采集器最新免費版
優(yōu)采云
采集器最新免費版是一款非常實(shí)用的數據采集器,基于人工智能技術(shù),可以自動(dòng)識別采集內容!界面簡(jiǎn)潔大方,符合手動(dòng)瀏覽的思維方式,任務(wù)數量不限,喜歡的內容自由導出,保存Excel、TXT格式并導出到本地,可視化操作,自定義采集流程,網(wǎng)頁(yè)數據即可輕松采集
,而且采集
網(wǎng)址數量沒(méi)有限制!
軟件特色
1、智能識別列表,鏡像下載次數不限,從文件導入url,批量生成url
2.手動(dòng)輸入url,任務(wù)數量不限,支持云存儲,以HTML格式導出到本地
3、一鍵采集數據,可模擬人的操作過(guò)程,滾動(dòng)頁(yè)面,等待加載

軟件亮點(diǎn)
1.模擬網(wǎng)頁(yè)操作順序,高級設置滿(mǎn)足更多采集
需求
2.支持多任務(wù)同時(shí)運行,切換端同步更新
3.根據軟件提示點(diǎn)擊頁(yè)面,結合條件篩選采集字段
4.問(wèn)答引導,可視化操作,數據庫發(fā)布到本地或云端服務(wù)器

軟件優(yōu)勢
1.簡(jiǎn)單步驟生成復雜采集規則,導出發(fā)布采集數據
2、自動(dòng)導出、文件下載、自動(dòng)生成復雜的數據采集規則
3、自定義采集流程,提供企業(yè)級服務(wù),可選擇提取文本、鏈接、屬性
用戶(hù)評價(jià)
根據軟件給出的提示,結合智能識別算法,操作簡(jiǎn)單,在效率上滿(mǎn)足采集要求。
經(jīng)驗總結:總結收集日志的幾種方法
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 85 次瀏覽 ? 2022-11-26 22:35
介紹
到目前為止,我們已經(jīng)看到采集
日志的方式有很多種。甚至,我們有很多種方法來(lái)采集
相同的日志。在今天的文章中,我將對其進(jìn)行簡(jiǎn)要回顧。
由 Filebeat 采集
Filebeat是最常用的日志采集
方式。使用Filebeat,我們還有以下方法:
按模塊采集
為了更方便的使用Filebeat采集數據,Elastic提供了模塊供使用:
我們可以使用以下命令獲取支持的模塊:
./filebeat modules list
通過(guò)模塊的使用,我們可以生成相應的ingest pipelines、dashboards、index patterns、index templates、ILM等,這些模塊是我們會(huì )經(jīng)常用到的模塊。開(kāi)箱即用的工具。
這種方法的路徑是 Filebeat => Elasticsearch。關(guān)于模塊的使用,可以參考《Beats:Beats入門(mén)教程(一)》一文。
使用Filebeat的輸入日志采集
即使是通過(guò)上面介紹的模塊方式采集
的日志,我們也可以使用這種方式來(lái)實(shí)現。但是,我們需要自己創(chuàng )建儀表板、攝取管道、索引模板、生命周期管理策略等。其實(shí)這是一種比較流行的回執采集
方式,特別是對于那些模塊不支持的自定義日志。
采集
這些數據的方式是:Filebeat => Elasticsearch。我們可以閱讀之前的文章《Beats:通過(guò)Filebeat將日志傳遞給Elasticsearch》。
完成 Filebeat 和 Logstash
我們知道Logstash可以用來(lái)清洗數據,可以使用Logstash來(lái)豐富數據和外部數據庫。另一方面,Logstash的使用提供了緩沖的作用,特別是對于產(chǎn)生大量日志的情況。
該方法采集到的路徑為:Filebeat => Logstash => Elasticsearch??梢钥次抑暗奈恼隆禠ogstash:Logstash入門(mén)教程(二)》,或者《Logstash:將Apache日志導入Elasticsearch》一文。
通過(guò) Kafaka 采集
數據
對于大量數據,Kafaka 是一種比較常見(jiàn)的解決方案。它充當緩沖區:
詳細閱讀請參考《Elastic:用Kafka部署Elastic Stack》一文。
通過(guò) Logstash 采集
在某些情況下,我們甚至可以直接使用Logstash來(lái)采集
日志數據。關(guān)于Logstash和Filebeat的區別,可以看《Beats:Elastic Beats介紹及與Logstash的比較》一文。
該方法的采集路徑為:Logstash => Elasticsearch??梢蚤喿x《Logstash:數據轉換、分析、抽取、豐富和核心操作》、《Elastic:使用Elastic Stack分析Spring Boot微服務(wù)日志(一)》兩篇文章。
通過(guò) Elastic Agent 采集
隨著(zhù)Elastic Stack的發(fā)展,Elastic在最新發(fā)布的版本中更推崇使用Elastic Agent來(lái)采集
日志。
關(guān)于使用Elastic Agent的日志采集方式,我們也分為兩類(lèi):
支持的集成
為了方便大家的使用,Elastic也提供了類(lèi)似開(kāi)箱即用模塊的解決方案。在最新版本中,我們使用提供的集成來(lái)完成日志采集
。
我們可以閱讀以下文章來(lái)理解:
自定義日志
在很多情況下,我們的日志可能不屬于 Elastic 提供的集成類(lèi)別。那么我們如何將這些日志采集
到Elasticsearch中呢?事實(shí)上,Elastic 提供了一個(gè)叫做 Custom Logs 的集成,專(zhuān)門(mén)處理這個(gè)繁瑣的需求。如果您想了解更多相關(guān)信息,請閱讀文章“可觀(guān)察性:如何使用 Elastic Agent 將自定義日志攝取到 Elasticsearch”。
直接在客戶(hù)端寫(xiě)入日志到Elasticsearch
我們也可以直接在客戶(hù)端以編程方式將日志寫(xiě)入 Elasticsearch。請閱讀文章:
使用其他非 Elastic Stack 解決方案
其實(shí)結合Elastic Stack還有很多其他的解決方案,比如:
以上,我們列舉了上面我能想到的方法。在實(shí)際使用中,開(kāi)發(fā)者可能有更多的方法。如果還有更多,請告訴我。我會(huì )把這一切寫(xiě)下來(lái)。
文末
嗨,我們來(lái)互動(dòng)吧!
喜歡這篇文章嗎?
歡迎留下你想說(shuō)的話(huà),留言100%被選中!
核心方法:SEO關(guān)鍵詞研究
關(guān)鍵詞研究可能是SEO最重要的部分,除非您知道自己關(guān)鍵詞目標是什么,否則您將無(wú)法開(kāi)始營(yíng)銷(xiāo)活動(dòng),也無(wú)法評估成本和回報,除非您知道自己在競爭什么。
開(kāi)始
關(guān)鍵詞研究是關(guān)于了解用戶(hù)在搜索信息時(shí)使用的單詞,這通常包括了解關(guān)鍵詞的搜索量以及這些單詞的競爭程度。
關(guān)鍵詞研究是搜索引擎優(yōu)化和搜索營(yíng)銷(xiāo)的關(guān)鍵部分。因為如果使用得當,他可以幫助我們在開(kāi)發(fā)網(wǎng)站和構建內容時(shí)提供路徑。根據搜索查詢(xún)的數量,關(guān)鍵詞可分為頭部、身體、長(cháng)尾。一般來(lái)說(shuō),關(guān)鍵詞的單詞越多,競爭越少,相對激烈,更容易獲得良好的排名
據說(shuō),一般來(lái)說(shuō),因為這個(gè)定律不是絕對的,所以會(huì )發(fā)生意外。下面是一些長(cháng)尾關(guān)鍵詞與主體和頭部關(guān)鍵詞的難度指數對比。
這個(gè)案例是一個(gè)長(cháng)尾關(guān)鍵詞容易競爭的點(diǎn)
在此示例中,長(cháng)尾與頭部一樣困難關(guān)鍵詞
這個(gè)例子是長(cháng)尾關(guān)鍵詞更難競爭
關(guān)鍵詞難度
數據是通過(guò)SEOmoz的關(guān)鍵詞難度工具獲得的,根據經(jīng)驗,一般包括品牌的長(cháng)尾關(guān)鍵詞更難競爭,9/10的長(cháng)尾關(guān)鍵詞一般比主體和頭部更容易關(guān)鍵詞
2 視角
SEO一般可以分為兩個(gè)目標:
獲取流量并增加轉化次數
很多SEO的壞處是過(guò)分強調獲得流量而不是轉化。這并不是說(shuō)獲得流量是錯誤的,而是關(guān)于您網(wǎng)站的目標。例如,對于電子商務(wù)網(wǎng)站來(lái)說(shuō),獲得高轉化價(jià)值的流量大于純流量。在廣告或媒體行業(yè),眼球可能更為重要,只有獲得流量才是正確的。
所以我們需要考慮:
更高的流量會(huì )直接帶來(lái)更高的收入嗎?或者,您是否想確保從具有更好轉化指標的關(guān)鍵詞獲得流量?關(guān)鍵詞的價(jià)值
根據以上兩點(diǎn),關(guān)鍵詞的值可以基于以下兩個(gè)維度:
每月搜索量、收入潛力或與競爭水平相關(guān)的轉化率
谷歌的關(guān)鍵字工具可用于查找相關(guān)的每月搜索量,但它沒(méi)有提供更多信息。AdWords? 提供了關(guān)鍵詞程度的競爭,但您需要了解這些已經(jīng)在這些關(guān)鍵詞搜索結果中排名的網(wǎng)站的權威性。chrome的Mozbar擴展名,這個(gè)工具可以給我一些詳細的數據。但對于更復雜的分析,建議使用 SerpIQ,如下圖所示
SEOmoz有一個(gè)名為關(guān)鍵字排名的報告,如下圖所示
但他沒(méi)有提供更詳細的信息,以及SerpIQ,一種提供平均競爭指數的工具。
和搜索的意圖
搜索每個(gè)位置的競爭索引
這些搜索結果網(wǎng)站的網(wǎng)頁(yè)排名
反向鏈接數量
然后是域名的年齡
研究搜索者的意圖
在優(yōu)化轉化率方面,了解目標受眾的搜索意圖至關(guān)重要。對關(guān)鍵詞進(jìn)行分類(lèi)并根據不同的渠道和來(lái)源進(jìn)行分析可以幫助我們了解用戶(hù)的搜索意圖。
開(kāi)始學(xué)習
這里會(huì )用到的工具很多,谷歌提供的谷歌關(guān)鍵詞工具一定少不了。使用此工具時(shí),請記住選擇完全匹配
以下是結果
給出這些關(guān)鍵詞的搜索量和競爭水平,然后導出,通過(guò)übersuggest獲得更多關(guān)鍵詞搜索建議
如下圖所示
這非常有用,因為它可以根據實(shí)際搜索行為捕獲與目標關(guān)鍵字相關(guān)的所有潛在排列。您現在可以向下鉆取到短語(yǔ)并選擇要添加到列表中的子關(guān)鍵字。然后單擊“獲取”按鈕生成一個(gè)允許您復制和粘貼的模態(tài)窗口。將您選擇的相關(guān)關(guān)鍵字粘貼回Google關(guān)鍵字工具并重新運行以獲取更多關(guān)鍵字數據的好處。提示:我發(fā)現當您一次輸入少于 10 個(gè)關(guān)鍵字時(shí),Google 關(guān)鍵字工具會(huì )提供更多建議關(guān)鍵字。
Wordtracker還有一個(gè)關(guān)鍵字建議工具雖然要真正從中獲得任何果汁,你需要注冊一個(gè)付費計劃:/還有各種工具可以在付費搜索和自然搜索之間提供關(guān)鍵字使用和競爭力——其中一些非常好。SEMrush–為您提供有關(guān)搜索量,平均每次點(diǎn)擊成本,競爭頁(yè)面數量,相關(guān)關(guān)鍵字,排名結果,甚至當前購買(mǎi)廣告空間的公司(單擊放大)的奇妙見(jiàn)解。
SpyFu – 提供搜索量、每天的點(diǎn)擊次數及其平均每日費用、當前對關(guān)鍵字出價(jià)的實(shí)際廣告客戶(hù)數量以及正在運行的實(shí)際 AdWord 廣告(點(diǎn)擊放大)。
– 是我快速了解風(fēng)景的最?lèi)?ài)之一。它非??焖俚兀ㄍㄟ^(guò)使用選項卡)使您可以訪(fǎng)問(wèn)有關(guān)PPC廣告,相關(guān)關(guān)鍵字短語(yǔ),付費和自然競爭對手以及我的最?lèi)?ài)的數據;拼寫(xiě)錯誤!您是否知道關(guān)鍵字研究每月估計有 110,000 次搜索!請參閱下面的儀表板屏幕截圖(單擊以放大)。
驗證重大機遇
一旦你在Excel中有一個(gè)好的列表,重要的是要了解你的大機會(huì ),或者正如我的團隊所說(shuō)的那樣;你的金票。首先,您需要通過(guò)Google趨勢運行熱門(mén)查詢(xún)來(lái)了解季節性波動(dòng)(點(diǎn)擊放大):
注意隨時(shí)間推移的平均興趣指數,因為它可能有點(diǎn)令人困惑; 這里的 100 代表有史以來(lái)最高的搜索量,它不是搜索次數的整數。所以你正在尋找的是目前的興趣并沒(méi)有完全下降,從圖表來(lái)看,關(guān)鍵詞研究的當前搜索量似乎比2010年8月下降了約50%。接下來(lái),你使用一些第三方石蕊測試來(lái)了解一個(gè)話(huà)題到底有多受歡迎,一個(gè)安全的賭注是使用世界上最受歡迎的百科全書(shū)Wikipedia.Domas Mituzashas建立了一個(gè)統計引擎來(lái)跟蹤維基百科的頁(yè)面瀏覽量。在過(guò)去的90天里,我們可以看到這個(gè)詞已經(jīng)被瀏覽了7,554次(帽子提示Glen Allsoppfor分享了這一點(diǎn))。點(diǎn)擊放大。
創(chuàng )建關(guān)鍵字評估模型
評估關(guān)鍵詞的相對機會(huì )還是很困難的。如果沒(méi)有大量的數據存儲和對競爭格局的詳細見(jiàn)解,很容易將大量時(shí)間和金錢(qián)投入到定位永遠不會(huì )帶來(lái)穩定回報的關(guān)鍵字上。為了避免這種情況,而是只關(guān)注有排名和賺錢(qián)的地方,我認為最好使用評估方法。有許多方法,從復雜的公式(包括許多不同的啟發(fā)式)到更簡(jiǎn)化的模型,旨在讓您了解機會(huì )。
雖然我正在研究我的模型的縮減版本以贈送,但它還沒(méi)有完全準備好——所以在這篇文章中,我們將使用平均簡(jiǎn)化版本。這比其他任何東西都更像是一個(gè)晴雨表,這些數據不應該用于制作商業(yè)案例,而只是為了給你一種機會(huì )感。我將使用SerpIQ的關(guān)鍵字競爭力評分,但您也可以使用SEOmoz的關(guān)鍵字難度評分或類(lèi)似的東西來(lái)做到這一點(diǎn)。對機會(huì )進(jìn)行評分需要一些簡(jiǎn)單的數學(xué)運算。
因此,對于此版本,我們將通過(guò)乘以競爭分數的反向折扣率(1減去競爭力指數百分比)來(lái)打折每月搜索量。對于這個(gè)例子,我將堅持我們的根短語(yǔ),關(guān)鍵字研究,并使用其他2個(gè)密切相關(guān)的變體:
使用我們的快速和骯臟的評估模型(確切的每月搜索量 x (1 – CI%),我們得到:關(guān)鍵字研究機會(huì )得分 (4,400 x (1-.68))= 1,408 關(guān)鍵字研究工具機會(huì )得分 (720 x (1-.
65))= 252 關(guān)鍵字研究軟件機會(huì )得分 (480 x (1-.56))= 211.2 顯示(快速記?。┘词龟P(guān)鍵字研究在競爭方面要困難得多, 在搜索流量定位關(guān)鍵字方面,它仍然是明顯的贏(yíng)家。這很有用,因為它考慮了與每月搜索量相關(guān)的機會(huì ),然后根據平均競爭對流量潛力進(jìn)行折扣。
閉環(huán)
進(jìn)行成功的關(guān)鍵字研究的一部分是每月留出時(shí)間來(lái)分析有效的方法,并相應地調整您的內容和鏈接策略。你在哪里看到SERP中最快的運動(dòng)?某些術(shù)語(yǔ)在前 10/30/50 個(gè)位置之間的移動(dòng)速度是否比其他術(shù)語(yǔ)快?哪些關(guān)鍵字最快到達第 1 頁(yè)?最快進(jìn)入前 5 名?問(wèn)自己這些問(wèn)題,請在下面的評論中與我分享您的想法——讓我知道你的假設,或者更好的是你的
實(shí)際數據;分享你的研究,告訴我什么有效,什么無(wú)效,我很想和你聊天。 查看全部
經(jīng)驗總結:總結收集日志的幾種方法
介紹
到目前為止,我們已經(jīng)看到采集
日志的方式有很多種。甚至,我們有很多種方法來(lái)采集
相同的日志。在今天的文章中,我將對其進(jìn)行簡(jiǎn)要回顧。
由 Filebeat 采集
Filebeat是最常用的日志采集
方式。使用Filebeat,我們還有以下方法:
按模塊采集
為了更方便的使用Filebeat采集數據,Elastic提供了模塊供使用:
我們可以使用以下命令獲取支持的模塊:
./filebeat modules list
通過(guò)模塊的使用,我們可以生成相應的ingest pipelines、dashboards、index patterns、index templates、ILM等,這些模塊是我們會(huì )經(jīng)常用到的模塊。開(kāi)箱即用的工具。
這種方法的路徑是 Filebeat => Elasticsearch。關(guān)于模塊的使用,可以參考《Beats:Beats入門(mén)教程(一)》一文。
使用Filebeat的輸入日志采集
即使是通過(guò)上面介紹的模塊方式采集
的日志,我們也可以使用這種方式來(lái)實(shí)現。但是,我們需要自己創(chuàng )建儀表板、攝取管道、索引模板、生命周期管理策略等。其實(shí)這是一種比較流行的回執采集
方式,特別是對于那些模塊不支持的自定義日志。

采集
這些數據的方式是:Filebeat => Elasticsearch。我們可以閱讀之前的文章《Beats:通過(guò)Filebeat將日志傳遞給Elasticsearch》。
完成 Filebeat 和 Logstash
我們知道Logstash可以用來(lái)清洗數據,可以使用Logstash來(lái)豐富數據和外部數據庫。另一方面,Logstash的使用提供了緩沖的作用,特別是對于產(chǎn)生大量日志的情況。
該方法采集到的路徑為:Filebeat => Logstash => Elasticsearch??梢钥次抑暗奈恼隆禠ogstash:Logstash入門(mén)教程(二)》,或者《Logstash:將Apache日志導入Elasticsearch》一文。
通過(guò) Kafaka 采集
數據
對于大量數據,Kafaka 是一種比較常見(jiàn)的解決方案。它充當緩沖區:
詳細閱讀請參考《Elastic:用Kafka部署Elastic Stack》一文。
通過(guò) Logstash 采集
在某些情況下,我們甚至可以直接使用Logstash來(lái)采集
日志數據。關(guān)于Logstash和Filebeat的區別,可以看《Beats:Elastic Beats介紹及與Logstash的比較》一文。
該方法的采集路徑為:Logstash => Elasticsearch??梢蚤喿x《Logstash:數據轉換、分析、抽取、豐富和核心操作》、《Elastic:使用Elastic Stack分析Spring Boot微服務(wù)日志(一)》兩篇文章。
通過(guò) Elastic Agent 采集
隨著(zhù)Elastic Stack的發(fā)展,Elastic在最新發(fā)布的版本中更推崇使用Elastic Agent來(lái)采集
日志。
關(guān)于使用Elastic Agent的日志采集方式,我們也分為兩類(lèi):

支持的集成
為了方便大家的使用,Elastic也提供了類(lèi)似開(kāi)箱即用模塊的解決方案。在最新版本中,我們使用提供的集成來(lái)完成日志采集
。
我們可以閱讀以下文章來(lái)理解:
自定義日志
在很多情況下,我們的日志可能不屬于 Elastic 提供的集成類(lèi)別。那么我們如何將這些日志采集
到Elasticsearch中呢?事實(shí)上,Elastic 提供了一個(gè)叫做 Custom Logs 的集成,專(zhuān)門(mén)處理這個(gè)繁瑣的需求。如果您想了解更多相關(guān)信息,請閱讀文章“可觀(guān)察性:如何使用 Elastic Agent 將自定義日志攝取到 Elasticsearch”。
直接在客戶(hù)端寫(xiě)入日志到Elasticsearch
我們也可以直接在客戶(hù)端以編程方式將日志寫(xiě)入 Elasticsearch。請閱讀文章:
使用其他非 Elastic Stack 解決方案
其實(shí)結合Elastic Stack還有很多其他的解決方案,比如:
以上,我們列舉了上面我能想到的方法。在實(shí)際使用中,開(kāi)發(fā)者可能有更多的方法。如果還有更多,請告訴我。我會(huì )把這一切寫(xiě)下來(lái)。
文末
嗨,我們來(lái)互動(dòng)吧!
喜歡這篇文章嗎?
歡迎留下你想說(shuō)的話(huà),留言100%被選中!
核心方法:SEO關(guān)鍵詞研究
關(guān)鍵詞研究可能是SEO最重要的部分,除非您知道自己關(guān)鍵詞目標是什么,否則您將無(wú)法開(kāi)始營(yíng)銷(xiāo)活動(dòng),也無(wú)法評估成本和回報,除非您知道自己在競爭什么。
開(kāi)始
關(guān)鍵詞研究是關(guān)于了解用戶(hù)在搜索信息時(shí)使用的單詞,這通常包括了解關(guān)鍵詞的搜索量以及這些單詞的競爭程度。
關(guān)鍵詞研究是搜索引擎優(yōu)化和搜索營(yíng)銷(xiāo)的關(guān)鍵部分。因為如果使用得當,他可以幫助我們在開(kāi)發(fā)網(wǎng)站和構建內容時(shí)提供路徑。根據搜索查詢(xún)的數量,關(guān)鍵詞可分為頭部、身體、長(cháng)尾。一般來(lái)說(shuō),關(guān)鍵詞的單詞越多,競爭越少,相對激烈,更容易獲得良好的排名
據說(shuō),一般來(lái)說(shuō),因為這個(gè)定律不是絕對的,所以會(huì )發(fā)生意外。下面是一些長(cháng)尾關(guān)鍵詞與主體和頭部關(guān)鍵詞的難度指數對比。
這個(gè)案例是一個(gè)長(cháng)尾關(guān)鍵詞容易競爭的點(diǎn)
在此示例中,長(cháng)尾與頭部一樣困難關(guān)鍵詞
這個(gè)例子是長(cháng)尾關(guān)鍵詞更難競爭
關(guān)鍵詞難度
數據是通過(guò)SEOmoz的關(guān)鍵詞難度工具獲得的,根據經(jīng)驗,一般包括品牌的長(cháng)尾關(guān)鍵詞更難競爭,9/10的長(cháng)尾關(guān)鍵詞一般比主體和頭部更容易關(guān)鍵詞
2 視角
SEO一般可以分為兩個(gè)目標:
獲取流量并增加轉化次數
很多SEO的壞處是過(guò)分強調獲得流量而不是轉化。這并不是說(shuō)獲得流量是錯誤的,而是關(guān)于您網(wǎng)站的目標。例如,對于電子商務(wù)網(wǎng)站來(lái)說(shuō),獲得高轉化價(jià)值的流量大于純流量。在廣告或媒體行業(yè),眼球可能更為重要,只有獲得流量才是正確的。
所以我們需要考慮:
更高的流量會(huì )直接帶來(lái)更高的收入嗎?或者,您是否想確保從具有更好轉化指標的關(guān)鍵詞獲得流量?關(guān)鍵詞的價(jià)值
根據以上兩點(diǎn),關(guān)鍵詞的值可以基于以下兩個(gè)維度:
每月搜索量、收入潛力或與競爭水平相關(guān)的轉化率
谷歌的關(guān)鍵字工具可用于查找相關(guān)的每月搜索量,但它沒(méi)有提供更多信息。AdWords? 提供了關(guān)鍵詞程度的競爭,但您需要了解這些已經(jīng)在這些關(guān)鍵詞搜索結果中排名的網(wǎng)站的權威性。chrome的Mozbar擴展名,這個(gè)工具可以給我一些詳細的數據。但對于更復雜的分析,建議使用 SerpIQ,如下圖所示

SEOmoz有一個(gè)名為關(guān)鍵字排名的報告,如下圖所示
但他沒(méi)有提供更詳細的信息,以及SerpIQ,一種提供平均競爭指數的工具。
和搜索的意圖
搜索每個(gè)位置的競爭索引
這些搜索結果網(wǎng)站的網(wǎng)頁(yè)排名
反向鏈接數量
然后是域名的年齡
研究搜索者的意圖
在優(yōu)化轉化率方面,了解目標受眾的搜索意圖至關(guān)重要。對關(guān)鍵詞進(jìn)行分類(lèi)并根據不同的渠道和來(lái)源進(jìn)行分析可以幫助我們了解用戶(hù)的搜索意圖。
開(kāi)始學(xué)習
這里會(huì )用到的工具很多,谷歌提供的谷歌關(guān)鍵詞工具一定少不了。使用此工具時(shí),請記住選擇完全匹配
以下是結果
給出這些關(guān)鍵詞的搜索量和競爭水平,然后導出,通過(guò)übersuggest獲得更多關(guān)鍵詞搜索建議

如下圖所示
這非常有用,因為它可以根據實(shí)際搜索行為捕獲與目標關(guān)鍵字相關(guān)的所有潛在排列。您現在可以向下鉆取到短語(yǔ)并選擇要添加到列表中的子關(guān)鍵字。然后單擊“獲取”按鈕生成一個(gè)允許您復制和粘貼的模態(tài)窗口。將您選擇的相關(guān)關(guān)鍵字粘貼回Google關(guān)鍵字工具并重新運行以獲取更多關(guān)鍵字數據的好處。提示:我發(fā)現當您一次輸入少于 10 個(gè)關(guān)鍵字時(shí),Google 關(guān)鍵字工具會(huì )提供更多建議關(guān)鍵字。
Wordtracker還有一個(gè)關(guān)鍵字建議工具雖然要真正從中獲得任何果汁,你需要注冊一個(gè)付費計劃:/還有各種工具可以在付費搜索和自然搜索之間提供關(guān)鍵字使用和競爭力——其中一些非常好。SEMrush–為您提供有關(guān)搜索量,平均每次點(diǎn)擊成本,競爭頁(yè)面數量,相關(guān)關(guān)鍵字,排名結果,甚至當前購買(mǎi)廣告空間的公司(單擊放大)的奇妙見(jiàn)解。
SpyFu – 提供搜索量、每天的點(diǎn)擊次數及其平均每日費用、當前對關(guān)鍵字出價(jià)的實(shí)際廣告客戶(hù)數量以及正在運行的實(shí)際 AdWord 廣告(點(diǎn)擊放大)。
– 是我快速了解風(fēng)景的最?lèi)?ài)之一。它非??焖俚兀ㄍㄟ^(guò)使用選項卡)使您可以訪(fǎng)問(wèn)有關(guān)PPC廣告,相關(guān)關(guān)鍵字短語(yǔ),付費和自然競爭對手以及我的最?lèi)?ài)的數據;拼寫(xiě)錯誤!您是否知道關(guān)鍵字研究每月估計有 110,000 次搜索!請參閱下面的儀表板屏幕截圖(單擊以放大)。
驗證重大機遇
一旦你在Excel中有一個(gè)好的列表,重要的是要了解你的大機會(huì ),或者正如我的團隊所說(shuō)的那樣;你的金票。首先,您需要通過(guò)Google趨勢運行熱門(mén)查詢(xún)來(lái)了解季節性波動(dòng)(點(diǎn)擊放大):
注意隨時(shí)間推移的平均興趣指數,因為它可能有點(diǎn)令人困惑; 這里的 100 代表有史以來(lái)最高的搜索量,它不是搜索次數的整數。所以你正在尋找的是目前的興趣并沒(méi)有完全下降,從圖表來(lái)看,關(guān)鍵詞研究的當前搜索量似乎比2010年8月下降了約50%。接下來(lái),你使用一些第三方石蕊測試來(lái)了解一個(gè)話(huà)題到底有多受歡迎,一個(gè)安全的賭注是使用世界上最受歡迎的百科全書(shū)Wikipedia.Domas Mituzashas建立了一個(gè)統計引擎來(lái)跟蹤維基百科的頁(yè)面瀏覽量。在過(guò)去的90天里,我們可以看到這個(gè)詞已經(jīng)被瀏覽了7,554次(帽子提示Glen Allsoppfor分享了這一點(diǎn))。點(diǎn)擊放大。
創(chuàng )建關(guān)鍵字評估模型
評估關(guān)鍵詞的相對機會(huì )還是很困難的。如果沒(méi)有大量的數據存儲和對競爭格局的詳細見(jiàn)解,很容易將大量時(shí)間和金錢(qián)投入到定位永遠不會(huì )帶來(lái)穩定回報的關(guān)鍵字上。為了避免這種情況,而是只關(guān)注有排名和賺錢(qián)的地方,我認為最好使用評估方法。有許多方法,從復雜的公式(包括許多不同的啟發(fā)式)到更簡(jiǎn)化的模型,旨在讓您了解機會(huì )。
雖然我正在研究我的模型的縮減版本以贈送,但它還沒(méi)有完全準備好——所以在這篇文章中,我們將使用平均簡(jiǎn)化版本。這比其他任何東西都更像是一個(gè)晴雨表,這些數據不應該用于制作商業(yè)案例,而只是為了給你一種機會(huì )感。我將使用SerpIQ的關(guān)鍵字競爭力評分,但您也可以使用SEOmoz的關(guān)鍵字難度評分或類(lèi)似的東西來(lái)做到這一點(diǎn)。對機會(huì )進(jìn)行評分需要一些簡(jiǎn)單的數學(xué)運算。
因此,對于此版本,我們將通過(guò)乘以競爭分數的反向折扣率(1減去競爭力指數百分比)來(lái)打折每月搜索量。對于這個(gè)例子,我將堅持我們的根短語(yǔ),關(guān)鍵字研究,并使用其他2個(gè)密切相關(guān)的變體:
使用我們的快速和骯臟的評估模型(確切的每月搜索量 x (1 – CI%),我們得到:關(guān)鍵字研究機會(huì )得分 (4,400 x (1-.68))= 1,408 關(guān)鍵字研究工具機會(huì )得分 (720 x (1-.
65))= 252 關(guān)鍵字研究軟件機會(huì )得分 (480 x (1-.56))= 211.2 顯示(快速記?。┘词龟P(guān)鍵字研究在競爭方面要困難得多, 在搜索流量定位關(guān)鍵字方面,它仍然是明顯的贏(yíng)家。這很有用,因為它考慮了與每月搜索量相關(guān)的機會(huì ),然后根據平均競爭對流量潛力進(jìn)行折扣。
閉環(huán)
進(jìn)行成功的關(guān)鍵字研究的一部分是每月留出時(shí)間來(lái)分析有效的方法,并相應地調整您的內容和鏈接策略。你在哪里看到SERP中最快的運動(dòng)?某些術(shù)語(yǔ)在前 10/30/50 個(gè)位置之間的移動(dòng)速度是否比其他術(shù)語(yǔ)快?哪些關(guān)鍵字最快到達第 1 頁(yè)?最快進(jìn)入前 5 名?問(wèn)自己這些問(wèn)題,請在下面的評論中與我分享您的想法——讓我知道你的假設,或者更好的是你的
實(shí)際數據;分享你的研究,告訴我什么有效,什么無(wú)效,我很想和你聊天。
優(yōu)采云使用實(shí)時(shí)文章采集的注意事項有哪些?
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 90 次瀏覽 ? 2023-01-14 03:26
實(shí)時(shí)文章采集是一種能夠在網(wǎng)上快速搜集新聞、論壇信息、圖片、視頻等海量數據的技術(shù)。它能夠快速定位和獲取有用的信息,從而為企業(yè)帶來(lái)大量的內容供應。當然,使用實(shí)時(shí)文章采集也有一些注意事項,如遵守版權法、遵守相關(guān)法律法規等。
優(yōu)采云是一款功能強大的實(shí)時(shí)文章采集軟件,具備SEO優(yōu)化功能。該軟件擁有強大的數據庫,能夠根據關(guān)鍵字快速搜索出相關(guān)信息;同時(shí)具備圖像識別功能,可以根據圖片找到相關(guān)內容;還具備中文分詞功能,可以對中文內容進(jìn)行分詞處理。此外,還可以將采集內容進(jìn)行SEO優(yōu)化處理,從而使內容在搜索引擎中更易被發(fā)現。
使用優(yōu)采云這一工具,企業(yè)不僅可以快速獲取大量的信息內容,而且還能將內容進(jìn)行SEO優(yōu)化處理,從而使內容在各大平臺上得到快速展示。同時(shí),由于該工具具有圖片識別功能和中文分詞功能,所以能夠將企業(yè)所需要的信息快速準確地找出來(lái)。
總之,隨著(zhù)互聯(lián)網(wǎng)的發(fā)展,優(yōu)采云這一實(shí)時(shí)文章采集工具已成為企業(yè)高效利用信息資源的不可或缺的部分。如果你想要嘗試一下優(yōu)采云這一工具的功能,你可以去它的官方網(wǎng)站www.hqbet6457.com上看看。 查看全部
實(shí)時(shí)文章采集,現在已經(jīng)成為了企業(yè)文章?tīng)I銷(xiāo)的必備技術(shù)。近幾年來(lái),隨著(zhù)互聯(lián)網(wǎng)技術(shù)的發(fā)展,實(shí)時(shí)文章采集技術(shù)也取得了很大的進(jìn)步,為企業(yè)文章?tīng)I銷(xiāo)帶來(lái)了很多便利。

實(shí)時(shí)文章采集是一種能夠在網(wǎng)上快速搜集新聞、論壇信息、圖片、視頻等海量數據的技術(shù)。它能夠快速定位和獲取有用的信息,從而為企業(yè)帶來(lái)大量的內容供應。當然,使用實(shí)時(shí)文章采集也有一些注意事項,如遵守版權法、遵守相關(guān)法律法規等。

優(yōu)采云是一款功能強大的實(shí)時(shí)文章采集軟件,具備SEO優(yōu)化功能。該軟件擁有強大的數據庫,能夠根據關(guān)鍵字快速搜索出相關(guān)信息;同時(shí)具備圖像識別功能,可以根據圖片找到相關(guān)內容;還具備中文分詞功能,可以對中文內容進(jìn)行分詞處理。此外,還可以將采集內容進(jìn)行SEO優(yōu)化處理,從而使內容在搜索引擎中更易被發(fā)現。

使用優(yōu)采云這一工具,企業(yè)不僅可以快速獲取大量的信息內容,而且還能將內容進(jìn)行SEO優(yōu)化處理,從而使內容在各大平臺上得到快速展示。同時(shí),由于該工具具有圖片識別功能和中文分詞功能,所以能夠將企業(yè)所需要的信息快速準確地找出來(lái)。
總之,隨著(zhù)互聯(lián)網(wǎng)的發(fā)展,優(yōu)采云這一實(shí)時(shí)文章采集工具已成為企業(yè)高效利用信息資源的不可或缺的部分。如果你想要嘗試一下優(yōu)采云這一工具的功能,你可以去它的官方網(wǎng)站www.hqbet6457.com上看看。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具需要做
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 90 次瀏覽 ? 2023-01-12 11:21
優(yōu)采云是一款面向新媒體從業(yè)人員、企業(yè)用戶(hù)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速、有效地進(jìn)行實(shí)時(shí)文章采集。該軟件提供了強大的SEO優(yōu)化功能,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配,并及時(shí)推送最新內容。此外,該軟件擁有強大的數據分析功能,能夠根據用戶(hù)要求進(jìn)行精準分析,幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。
此外,優(yōu)采云還具備眾多的特性:1、該軟件具有超強的采集能力,可以根據用戶(hù)要求快速定向采集新聞信息;2、該軟件擁有強大的SEO優(yōu)化能力,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配;3、該軟件擁有強大的數據分析功能,能夠幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具可以幫助用戶(hù)快速實(shí)現實(shí)時(shí)監測和內容采集。該軟件可以根據用戶(hù)關(guān)鍵字要求快速定向采集廣泛的信息來(lái)源(包含微博、微信、博客、門(mén)戶(hù)等等),并提供SEO優(yōu)化和數據分析功能來(lái)幫助用戶(hù)判斷信息真實(shí)性并準確判斷市場(chǎng)脈動(dòng)。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具所需要做的是注冊?xún)?yōu)采云官網(wǎng)www.hqbet6457.com上的帳號并進(jìn)行相關(guān)賬號綁定后即可使用。 查看全部
實(shí)時(shí)文章采集是新媒體傳播過(guò)程中一項必不可少的工作,它能夠有效收集到大量的信息,為企業(yè)提供有力的數據支撐。實(shí)時(shí)文章采集是一項耗時(shí)費力的工作,因此如何快速、有效地進(jìn)行實(shí)時(shí)文章采集成為了企業(yè)和新媒體從業(yè)者們關(guān)注的焦點(diǎn)。

優(yōu)采云是一款面向新媒體從業(yè)人員、企業(yè)用戶(hù)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速、有效地進(jìn)行實(shí)時(shí)文章采集。該軟件提供了強大的SEO優(yōu)化功能,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配,并及時(shí)推送最新內容。此外,該軟件擁有強大的數據分析功能,能夠根據用戶(hù)要求進(jìn)行精準分析,幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。

此外,優(yōu)采云還具備眾多的特性:1、該軟件具有超強的采集能力,可以根據用戶(hù)要求快速定向采集新聞信息;2、該軟件擁有強大的SEO優(yōu)化能力,能夠根據用戶(hù)要求對文章內容進(jìn)行精準匹配;3、該軟件擁有強大的數據分析功能,能夠幫助用戶(hù)及時(shí)把握市場(chǎng)脈搏。

使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具可以幫助用戶(hù)快速實(shí)現實(shí)時(shí)監測和內容采集。該軟件可以根據用戶(hù)關(guān)鍵字要求快速定向采集廣泛的信息來(lái)源(包含微博、微信、博客、門(mén)戶(hù)等等),并提供SEO優(yōu)化和數據分析功能來(lái)幫助用戶(hù)判斷信息真實(shí)性并準確判斷市場(chǎng)脈動(dòng)。
使用優(yōu)采云這一超強實(shí)時(shí)文章采集工具所需要做的是注冊?xún)?yōu)采云官網(wǎng)www.hqbet6457.com上的帳號并進(jìn)行相關(guān)賬號綁定后即可使用。
優(yōu)采云幫助用戶(hù)快速準確地獲取真正有價(jià)值的信息
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 60 次瀏覽 ? 2023-01-12 08:15
優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,可以幫助用戶(hù)輕松獲取各大網(wǎng)站上最新、最全面的信息。該軟件支持多種采集方式,包括關(guān)鍵詞采集、RSS訂閱、API數據對接等,能夠快速準確地采集到各大網(wǎng)站上所需要的信息。此外,優(yōu)采云還可以幫助用戶(hù)對所采集到的內容進(jìn)行SEO優(yōu)化,使內容在搜索引擎中得到優(yōu)先展示。
隨著(zhù)互聯(lián)網(wǎng)時(shí)代的到來(lái),人們對信息的獲取和分享也變得愈加便利。但是由于海量信息中存在大量低質(zhì)量?jì)热?,因此如何快速準確地獲取真正有價(jià)值的信息成為一個(gè)問(wèn)題。而優(yōu)采云就是為此而生,它能夠幫助用戶(hù)快速準確地獲取真正有用的信息,并將其整理成多樣化形式(如新聞、博客、教程、圖片等)供用戶(hù)使用。同時(shí)還能夠幫助用戶(hù)對內容進(jìn)行SEO優(yōu)化,以便在搜索引擎中得到優(yōu)先展示。
總之,優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速準確地獲取真正有價(jià)值的信息并將其整理成多樣化形式供用戶(hù)使用。各位想要嘗試使用該軟件的人士可前往www.hqbet6457.com進(jìn)行下載。 查看全部
實(shí)時(shí)文章采集是一種在線(xiàn)服務(wù),可以幫助網(wǎng)站擁有者掌握最新的信息,從而增加網(wǎng)站的流量。它的主要目的是通過(guò)自動(dòng)化的方式來(lái)收集最新的、有價(jià)值的信息,并將這些信息整理成新聞、博客、教程、圖片等形式,以便用戶(hù)能夠快速獲取所需的內容。

優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,可以幫助用戶(hù)輕松獲取各大網(wǎng)站上最新、最全面的信息。該軟件支持多種采集方式,包括關(guān)鍵詞采集、RSS訂閱、API數據對接等,能夠快速準確地采集到各大網(wǎng)站上所需要的信息。此外,優(yōu)采云還可以幫助用戶(hù)對所采集到的內容進(jìn)行SEO優(yōu)化,使內容在搜索引擎中得到優(yōu)先展示。

隨著(zhù)互聯(lián)網(wǎng)時(shí)代的到來(lái),人們對信息的獲取和分享也變得愈加便利。但是由于海量信息中存在大量低質(zhì)量?jì)热?,因此如何快速準確地獲取真正有價(jià)值的信息成為一個(gè)問(wèn)題。而優(yōu)采云就是為此而生,它能夠幫助用戶(hù)快速準確地獲取真正有用的信息,并將其整理成多樣化形式(如新聞、博客、教程、圖片等)供用戶(hù)使用。同時(shí)還能夠幫助用戶(hù)對內容進(jìn)行SEO優(yōu)化,以便在搜索引擎中得到優(yōu)先展示。

總之,優(yōu)采云是一款專(zhuān)業(yè)的實(shí)時(shí)文章采集軟件,能夠幫助用戶(hù)快速準確地獲取真正有價(jià)值的信息并將其整理成多樣化形式供用戶(hù)使用。各位想要嘗試使用該軟件的人士可前往www.hqbet6457.com進(jìn)行下載。
實(shí)時(shí)文章采集:優(yōu)采云采集器幫你輕松掌控全網(wǎng)海量信息
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 96 次瀏覽 ? 2022-12-28 05:15
隨著(zhù)網(wǎng)絡(luò )的發(fā)展,日益多的人選擇將信息發(fā)布到網(wǎng)上,但隨之而來(lái)的是,信息的海量和復雜性。如何快速、準確地獲取這些信息,成為人們面臨的一大難題。優(yōu)采云采集器正是為此而生。
優(yōu)采云采集器是一款功能強大、易用的實(shí)時(shí)文章采集工具,可以幫助使用者快速、有效地獲取全網(wǎng)海量信息。它具備多樣化的文章采集方式,不僅可以對新聞、論壇、博客、媒體實(shí)時(shí)進(jìn)行內容監測,還可以根據特定關(guān)鍵詞進(jìn)行新聞監聽(tīng)、全網(wǎng)數據內容分析,并對整理出來(lái)的數據進(jìn)行歸類(lèi)存儲,使用者可以輕松找到所需要的內容。
此外,優(yōu)采云采集器還能夠根據用戶(hù)需要進(jìn)行信息整理和去重處理,大幅度減少用戶(hù)手動(dòng)去重文章的工作量。同時(shí),優(yōu)采云采集器還可以根據用戶(hù)要求對原始數據進(jìn)行處理,并支持一鍵生成語(yǔ)音版本新聞便于用戶(hù)節省時(shí)間進(jìn)行快速閱讀。
通過(guò)優(yōu)采云采集器,不僅可以有效節省時(shí)間、減少工作強度,而且也能夠有效地幫助使用者獲取準確有效的海量信息內容。相信使用優(yōu)采云采集器一定能夠帶來(lái)意想不到的好處。
“優(yōu)采云”是一家專(zhuān)業(yè)的信息服務(wù)公司。我們賦能眾多企業(yè)、機構、學(xué)校等各類(lèi)用戶(hù),幫助大家快速、有效地獲取全網(wǎng)海量信息內容。此前,我們已將“優(yōu)采云”專(zhuān)業(yè)的信息服務(wù)水平證明在國內各大行業(yè)領(lǐng)域中得到廣泛應用。如今,我們將成功引入“實(shí)時(shí)文章采集”服務(wù)——“優(yōu)采云”新版“實(shí)時(shí)文章采集”工具——“優(yōu)采云采集器”(www.hqbet6457.com),幫助使用者快速、準確地獲取全網(wǎng)海量數據和信息內容(包含但不限于新聞、資訊、社媒);還能夠帶來(lái)整理和去除含有違禁字符等有用的效果;還有根據用戶(hù)要求快速生成語(yǔ)音版本等多項便利性特性。
總之,“優(yōu)采云采集器”的出現將大大方便各行各業(yè)領(lǐng)域中對海量信息內容獲取之困,無(wú)論是想要快速相應市場(chǎng)上即時(shí)流行趨勢,還是想要在第一時(shí)間得到相應話(huà)題相關(guān)新聞,“優(yōu)釋云”都能帶來(lái)意想不到的便利性,節省大家搜尋信息所耗費的時(shí)間,節省大家整理去除冗余信息所耗費的人力,打造一個(gè)快速、準確、方便的信息服務(wù)生態(tài).
如何開(kāi)始使用呢?“優(yōu)銃云”正式上線(xiàn)!大家只需要在www.hqbet6457.com上注冊即可.“優(yōu)銃云”樂(lè )意為大家提供獨特考試性努力,節省大家搜尋/整理/去除/存儲/語(yǔ)音化海量信息所耗費的時(shí)間;帶來(lái)意想不到的便利性;節省人力;構建一個(gè)快速準確方便的信息服務(wù)生態(tài);“優(yōu)銃云”將一如既往地為大家提供最好的服務(wù)! 查看全部
實(shí)時(shí)文章采集:優(yōu)采云采集器幫你輕松掌控全網(wǎng)海量信息
隨著(zhù)網(wǎng)絡(luò )的發(fā)展,日益多的人選擇將信息發(fā)布到網(wǎng)上,但隨之而來(lái)的是,信息的海量和復雜性。如何快速、準確地獲取這些信息,成為人們面臨的一大難題。優(yōu)采云采集器正是為此而生。
優(yōu)采云采集器是一款功能強大、易用的實(shí)時(shí)文章采集工具,可以幫助使用者快速、有效地獲取全網(wǎng)海量信息。它具備多樣化的文章采集方式,不僅可以對新聞、論壇、博客、媒體實(shí)時(shí)進(jìn)行內容監測,還可以根據特定關(guān)鍵詞進(jìn)行新聞監聽(tīng)、全網(wǎng)數據內容分析,并對整理出來(lái)的數據進(jìn)行歸類(lèi)存儲,使用者可以輕松找到所需要的內容。

此外,優(yōu)采云采集器還能夠根據用戶(hù)需要進(jìn)行信息整理和去重處理,大幅度減少用戶(hù)手動(dòng)去重文章的工作量。同時(shí),優(yōu)采云采集器還可以根據用戶(hù)要求對原始數據進(jìn)行處理,并支持一鍵生成語(yǔ)音版本新聞便于用戶(hù)節省時(shí)間進(jìn)行快速閱讀。
通過(guò)優(yōu)采云采集器,不僅可以有效節省時(shí)間、減少工作強度,而且也能夠有效地幫助使用者獲取準確有效的海量信息內容。相信使用優(yōu)采云采集器一定能夠帶來(lái)意想不到的好處。

“優(yōu)采云”是一家專(zhuān)業(yè)的信息服務(wù)公司。我們賦能眾多企業(yè)、機構、學(xué)校等各類(lèi)用戶(hù),幫助大家快速、有效地獲取全網(wǎng)海量信息內容。此前,我們已將“優(yōu)采云”專(zhuān)業(yè)的信息服務(wù)水平證明在國內各大行業(yè)領(lǐng)域中得到廣泛應用。如今,我們將成功引入“實(shí)時(shí)文章采集”服務(wù)——“優(yōu)采云”新版“實(shí)時(shí)文章采集”工具——“優(yōu)采云采集器”(www.hqbet6457.com),幫助使用者快速、準確地獲取全網(wǎng)海量數據和信息內容(包含但不限于新聞、資訊、社媒);還能夠帶來(lái)整理和去除含有違禁字符等有用的效果;還有根據用戶(hù)要求快速生成語(yǔ)音版本等多項便利性特性。
總之,“優(yōu)采云采集器”的出現將大大方便各行各業(yè)領(lǐng)域中對海量信息內容獲取之困,無(wú)論是想要快速相應市場(chǎng)上即時(shí)流行趨勢,還是想要在第一時(shí)間得到相應話(huà)題相關(guān)新聞,“優(yōu)釋云”都能帶來(lái)意想不到的便利性,節省大家搜尋信息所耗費的時(shí)間,節省大家整理去除冗余信息所耗費的人力,打造一個(gè)快速、準確、方便的信息服務(wù)生態(tài).
如何開(kāi)始使用呢?“優(yōu)銃云”正式上線(xiàn)!大家只需要在www.hqbet6457.com上注冊即可.“優(yōu)銃云”樂(lè )意為大家提供獨特考試性努力,節省大家搜尋/整理/去除/存儲/語(yǔ)音化海量信息所耗費的時(shí)間;帶來(lái)意想不到的便利性;節省人力;構建一個(gè)快速準確方便的信息服務(wù)生態(tài);“優(yōu)銃云”將一如既往地為大家提供最好的服務(wù)!
解決方案:優(yōu)采云采集器可以有效解決信息與虛假信息的難題
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 103 次瀏覽 ? 2022-12-27 10:18
實(shí)時(shí)文章采集是當今網(wǎng)絡(luò )信息的重要方式之一。相比傳統的采集技術(shù),實(shí)時(shí)文章采集更加有效、快捷、準確。它能夠幫助用戶(hù)在網(wǎng)上獲取海量的新聞、文章、圖片和視頻信息,并進(jìn)行及時(shí)分享,這對企業(yè)和個(gè)人都很有幫助。
但是,實(shí)時(shí)文章采集也存在一些問(wèn)題。例如,由于大量信息需要同時(shí)收集,很多用戶(hù)使用的設備和軟件性能不足以應付巨大的數據量;另外,如何準確區分出真實(shí)有效的信息與虛假信息也是一個(gè)難題。
幸運的是,優(yōu)采云采集器可以有效解決上述問(wèn)題。它具有強大的數據核心加速引擎,可以快速地將海量數據分發(fā)給用戶(hù);此外,該工具還具備“內容安全”功能,能夠準確地區分真偽信息并對其進(jìn)行評估。此外,該工具還能根據用戶(hù)需要即時(shí)推送新聞資訊、圖片、文章等內容。
此外,優(yōu)采云采集器還具有兩大獨特功能。首先是“無(wú)障礙”功能:該工具可以在不同平臺上使用,而不用去考慮不同平臺之間的差異性問(wèn)題。其次是“大數據利用”功能——通過(guò)將海量數據歸類(lèi)、分割和去噪處理來(lái)使得信號保留盡可能多的有效信息。
總而言之,優(yōu)采云采集器是一個(gè)強大而高效的新一代實(shí)時(shí)文章采集工具。它不僅將帶來(lái)快速便捷的新聞體驗,而且能夠準確地獲取真正有用的信息內容。 查看全部
解決方案:優(yōu)采云采集器可以有效解決信息與虛假信息的難題
實(shí)時(shí)文章采集是當今網(wǎng)絡(luò )信息的重要方式之一。相比傳統的采集技術(shù),實(shí)時(shí)文章采集更加有效、快捷、準確。它能夠幫助用戶(hù)在網(wǎng)上獲取海量的新聞、文章、圖片和視頻信息,并進(jìn)行及時(shí)分享,這對企業(yè)和個(gè)人都很有幫助。

但是,實(shí)時(shí)文章采集也存在一些問(wèn)題。例如,由于大量信息需要同時(shí)收集,很多用戶(hù)使用的設備和軟件性能不足以應付巨大的數據量;另外,如何準確區分出真實(shí)有效的信息與虛假信息也是一個(gè)難題。
幸運的是,優(yōu)采云采集器可以有效解決上述問(wèn)題。它具有強大的數據核心加速引擎,可以快速地將海量數據分發(fā)給用戶(hù);此外,該工具還具備“內容安全”功能,能夠準確地區分真偽信息并對其進(jìn)行評估。此外,該工具還能根據用戶(hù)需要即時(shí)推送新聞資訊、圖片、文章等內容。

此外,優(yōu)采云采集器還具有兩大獨特功能。首先是“無(wú)障礙”功能:該工具可以在不同平臺上使用,而不用去考慮不同平臺之間的差異性問(wèn)題。其次是“大數據利用”功能——通過(guò)將海量數據歸類(lèi)、分割和去噪處理來(lái)使得信號保留盡可能多的有效信息。
總而言之,優(yōu)采云采集器是一個(gè)強大而高效的新一代實(shí)時(shí)文章采集工具。它不僅將帶來(lái)快速便捷的新聞體驗,而且能夠準確地獲取真正有用的信息內容。
匯總:如何知乎采集數據方法大全
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 117 次瀏覽 ? 2022-12-24 14:38
“內容為王”,站長(cháng)朋友們已經(jīng)非常認可這個(gè)觀(guān)點(diǎn)了。 那么一個(gè)網(wǎng)站如何創(chuàng )造更優(yōu)秀的內容呢? 這是網(wǎng)站管理員最大的問(wèn)題。 不是每個(gè)人都有這么好的文筆,寫(xiě)的像神一樣,每篇文章都能達到高質(zhì)量。 不是每個(gè)人都有那么多時(shí)間,每天花很多時(shí)間寫(xiě)文章和創(chuàng )作內容。 很多站長(cháng)選擇采集內容來(lái)充實(shí)自己的網(wǎng)站,但是胡亂采集一些文章,不僅不會(huì )增加網(wǎng)站的收錄和排名,反而會(huì )適得其反。
關(guān)于采集,如何找到優(yōu)質(zhì)的文章,首先要找一個(gè)優(yōu)質(zhì)的平臺進(jìn)行針對性的采集。 知乎是中文互聯(lián)網(wǎng)優(yōu)質(zhì)問(wèn)答社區,是創(chuàng )作者聚集的原創(chuàng )內容平臺。 生活和工作中遇到的很多問(wèn)題都可以在知乎上找到你想要的答案! 原因是因為知乎的回答比較權威靠譜。 知乎有幾個(gè)優(yōu)勢,使其成為吸引人們的重要渠道。 首先,知乎的權重非常高。 大家要知道,用戶(hù)在搜索相關(guān)信息和答案的時(shí)候,排在前幾位的一般都是知知乎文章或者知乎答案,可見(jiàn)知乎是一個(gè)深受人們喜愛(ài)的優(yōu)質(zhì)平臺。
說(shuō)了這么多優(yōu)點(diǎn),我們來(lái)說(shuō)說(shuō)如何采集知乎上的文章吧! 如果一一復制粘貼顯然不現實(shí),那么我們可以使用免費的知乎采集工具來(lái)完成繁瑣的采集工作。 首先我們新建一個(gè)采集任務(wù),比如知乎采集任務(wù),然后在采集數據中選擇搜狗知乎。 接下來(lái)選擇一個(gè)采集文章的文件夾,設置一個(gè)關(guān)鍵詞采集多少篇文章。 最后我們導入需要采集的關(guān)鍵詞或者長(cháng)尾關(guān)鍵詞,點(diǎn)擊保存開(kāi)始采集。 開(kāi)始采集后,可以實(shí)時(shí)看到工作進(jìn)程,可以非常直觀(guān)的清楚了解當前的工作情況。 這樣,原本很繁瑣的事情,通過(guò)知乎免費采集工具變得非常簡(jiǎn)單、高效、準確!
對于免費知乎文章采集,我們會(huì )采集以下字段:?jiǎn)?wèn)題名稱(chēng)、問(wèn)題描述、評論數、問(wèn)題網(wǎng)址、答案ID、答案ID描述、答案ID頭像、答案正文等字段。 操作簡(jiǎn)單傻瓜式,不需要我們編寫(xiě)采集規則。 強大的功能支持采集采集簡(jiǎn)單的設置即可采集到所有新聞源。 采集可以設置多個(gè)任務(wù),針對不同的來(lái)源進(jìn)行采集。
匯總:網(wǎng)頁(yè)批量抓取-批量 網(wǎng)頁(yè)數據一鍵抓取
爬取整個(gè)網(wǎng)頁(yè),我們如何在整個(gè)網(wǎng)頁(yè)上抓取我們想要的文章內容,很多人想到的就是內容爬取。 想到了學(xué)一門(mén)編程語(yǔ)言,最著(zhù)名的就是python爬蟲(chóng)。 如果完全自學(xué),從零開(kāi)始學(xué)習Python,我覺(jué)得至少需要半年到一年半的時(shí)間。 從某種程度上說(shuō),這樣的時(shí)間成本太高了。 那么如何才能在短時(shí)間內爬取整個(gè)網(wǎng)頁(yè)的內容呢? 【詳細參考圖片,軟件免費! 】
搜索引擎優(yōu)化,也稱(chēng)為SEO,是一種了解各種搜索引擎如何進(jìn)行搜索、如何抓取互聯(lián)網(wǎng)頁(yè)面以及如何確定特定關(guān)鍵詞的搜索結果排名的技術(shù)。 搜索引擎利用容易被搜索和引用的方式有針對性地優(yōu)化網(wǎng)站,提高網(wǎng)站在搜索引擎中的自然排名,吸引更多的用戶(hù)訪(fǎng)問(wèn)網(wǎng)站,增加網(wǎng)站的訪(fǎng)問(wèn)量,并提高網(wǎng)站的銷(xiāo)售能力和宣傳能力,提升網(wǎng)站的品牌效應。
網(wǎng)站搜索引擎優(yōu)化的任務(wù)主要是了解和了解其他搜索引擎如何抓取網(wǎng)頁(yè),如何索引,如何確定搜索關(guān)鍵詞等相關(guān)技術(shù),從而優(yōu)化本網(wǎng)頁(yè)的內容,確保其能夠符合用戶(hù)的瀏覽習慣,并在不影響網(wǎng)民體驗的情況下提高搜索引擎排名的現代技術(shù),從而增加網(wǎng)站的訪(fǎng)問(wèn)量,最終提高網(wǎng)站的推廣或銷(xiāo)售能力網(wǎng)站。 基于搜索引擎優(yōu)化處理,其實(shí)是為了讓這個(gè)網(wǎng)站更容易被搜索引擎所接受,搜索引擎往往會(huì )比較不同網(wǎng)站的內容,然后通過(guò)瀏覽器將這些內容完整、直接、快速地提供給網(wǎng)絡(luò )用戶(hù)。
SEO優(yōu)化就是讓網(wǎng)站內容更符合搜索引擎的算法和排名規則,更符合用戶(hù)體驗。 通過(guò)網(wǎng)站內部結構的調整優(yōu)化和站外SEO的推廣優(yōu)化,使網(wǎng)站滿(mǎn)足搜索引擎收錄和排名的需要。 用戶(hù)在搜索引擎中搜索關(guān)鍵詞時(shí),可以提高關(guān)鍵詞的相對網(wǎng)頁(yè)排名,從而獲取用戶(hù)流量,吸引精準客戶(hù)。 出于銷(xiāo)售產(chǎn)品或服務(wù)的目的被帶到網(wǎng)站。
現場(chǎng)優(yōu)化主要包括:
1.關(guān)鍵詞分析【用戶(hù)搜索行為分析、數據分析】
它是SEO優(yōu)化中最重要的部分。 關(guān)鍵詞分析包括關(guān)鍵詞搜索量分析、關(guān)鍵詞抓取競爭對手全站排名分析、關(guān)鍵詞與網(wǎng)站相關(guān)性分析、關(guān)鍵詞布局、關(guān)鍵詞網(wǎng)站文案策劃等。
2、網(wǎng)站設計,根據用戶(hù)關(guān)心的問(wèn)題,設計用戶(hù)喜歡的網(wǎng)站風(fēng)格。
3、網(wǎng)站結構,設計符合搜索引擎爬蟲(chóng)偏好,有利于SEO優(yōu)化的網(wǎng)站結構。
網(wǎng)站結構不宜太復雜,網(wǎng)站內容不宜太深,用戶(hù)關(guān)心的重要內容要易于查找,有利于用戶(hù)的瀏覽習慣。 一般為樹(shù)狀目錄結構或扁平目錄結構。 網(wǎng)站導航清晰,分類(lèi)精細,頁(yè)面布局美觀(guān)。
seo優(yōu)化的作用是提高網(wǎng)站關(guān)鍵詞在搜索引擎中的排名。 用戶(hù)搜索關(guān)鍵詞時(shí),可以將其展示在比較靠前的位置,讓用戶(hù)更容易找到公司的產(chǎn)品、服務(wù)和網(wǎng)站,獲得更多的展示機會(huì )和用戶(hù)點(diǎn)擊量,增加企業(yè)的曝光率品牌,帶來(lái)客戶(hù)。 以達到銷(xiāo)售產(chǎn)品和增加營(yíng)業(yè)額的目的。
SEO優(yōu)化還有很多其他的作用,主要有以下幾點(diǎn):
1、增加公司產(chǎn)品和服務(wù)的曝光度和品牌影響力。
2、SEO是一種非常好的網(wǎng)絡(luò )營(yíng)銷(xiāo)方式,可以不斷獲取精準客戶(hù)。
3.seo可以獲得廣泛的客戶(hù),可以有效降低企業(yè)的銷(xiāo)售成本。
從長(cháng)遠來(lái)看,與關(guān)鍵詞推廣相比,搜索引擎優(yōu)化不需要為每個(gè)用戶(hù)的點(diǎn)擊付費,這比PPC更有優(yōu)勢。 搜索引擎優(yōu)化可以忽略搜索引擎之間的獨立性。 即使只針對某個(gè)搜索引擎進(jìn)行優(yōu)化,網(wǎng)站在其他搜索引擎中的排名也會(huì )相應提高,達到企業(yè)在關(guān)鍵詞推廣上重復付費才能達到的效果。 .
4、可以有效降低企業(yè)的服務(wù)成本,更高效地為用戶(hù)服務(wù)。
5、增加企業(yè)的軟實(shí)力,增強企業(yè)客戶(hù)的信譽(yù)度。 查看全部
匯總:如何知乎采集數據方法大全
“內容為王”,站長(cháng)朋友們已經(jīng)非常認可這個(gè)觀(guān)點(diǎn)了。 那么一個(gè)網(wǎng)站如何創(chuàng )造更優(yōu)秀的內容呢? 這是網(wǎng)站管理員最大的問(wèn)題。 不是每個(gè)人都有這么好的文筆,寫(xiě)的像神一樣,每篇文章都能達到高質(zhì)量。 不是每個(gè)人都有那么多時(shí)間,每天花很多時(shí)間寫(xiě)文章和創(chuàng )作內容。 很多站長(cháng)選擇采集內容來(lái)充實(shí)自己的網(wǎng)站,但是胡亂采集一些文章,不僅不會(huì )增加網(wǎng)站的收錄和排名,反而會(huì )適得其反。

關(guān)于采集,如何找到優(yōu)質(zhì)的文章,首先要找一個(gè)優(yōu)質(zhì)的平臺進(jìn)行針對性的采集。 知乎是中文互聯(lián)網(wǎng)優(yōu)質(zhì)問(wèn)答社區,是創(chuàng )作者聚集的原創(chuàng )內容平臺。 生活和工作中遇到的很多問(wèn)題都可以在知乎上找到你想要的答案! 原因是因為知乎的回答比較權威靠譜。 知乎有幾個(gè)優(yōu)勢,使其成為吸引人們的重要渠道。 首先,知乎的權重非常高。 大家要知道,用戶(hù)在搜索相關(guān)信息和答案的時(shí)候,排在前幾位的一般都是知知乎文章或者知乎答案,可見(jiàn)知乎是一個(gè)深受人們喜愛(ài)的優(yōu)質(zhì)平臺。
說(shuō)了這么多優(yōu)點(diǎn),我們來(lái)說(shuō)說(shuō)如何采集知乎上的文章吧! 如果一一復制粘貼顯然不現實(shí),那么我們可以使用免費的知乎采集工具來(lái)完成繁瑣的采集工作。 首先我們新建一個(gè)采集任務(wù),比如知乎采集任務(wù),然后在采集數據中選擇搜狗知乎。 接下來(lái)選擇一個(gè)采集文章的文件夾,設置一個(gè)關(guān)鍵詞采集多少篇文章。 最后我們導入需要采集的關(guān)鍵詞或者長(cháng)尾關(guān)鍵詞,點(diǎn)擊保存開(kāi)始采集。 開(kāi)始采集后,可以實(shí)時(shí)看到工作進(jìn)程,可以非常直觀(guān)的清楚了解當前的工作情況。 這樣,原本很繁瑣的事情,通過(guò)知乎免費采集工具變得非常簡(jiǎn)單、高效、準確!

對于免費知乎文章采集,我們會(huì )采集以下字段:?jiǎn)?wèn)題名稱(chēng)、問(wèn)題描述、評論數、問(wèn)題網(wǎng)址、答案ID、答案ID描述、答案ID頭像、答案正文等字段。 操作簡(jiǎn)單傻瓜式,不需要我們編寫(xiě)采集規則。 強大的功能支持采集采集簡(jiǎn)單的設置即可采集到所有新聞源。 采集可以設置多個(gè)任務(wù),針對不同的來(lái)源進(jìn)行采集。
匯總:網(wǎng)頁(yè)批量抓取-批量 網(wǎng)頁(yè)數據一鍵抓取
爬取整個(gè)網(wǎng)頁(yè),我們如何在整個(gè)網(wǎng)頁(yè)上抓取我們想要的文章內容,很多人想到的就是內容爬取。 想到了學(xué)一門(mén)編程語(yǔ)言,最著(zhù)名的就是python爬蟲(chóng)。 如果完全自學(xué),從零開(kāi)始學(xué)習Python,我覺(jué)得至少需要半年到一年半的時(shí)間。 從某種程度上說(shuō),這樣的時(shí)間成本太高了。 那么如何才能在短時(shí)間內爬取整個(gè)網(wǎng)頁(yè)的內容呢? 【詳細參考圖片,軟件免費! 】
搜索引擎優(yōu)化,也稱(chēng)為SEO,是一種了解各種搜索引擎如何進(jìn)行搜索、如何抓取互聯(lián)網(wǎng)頁(yè)面以及如何確定特定關(guān)鍵詞的搜索結果排名的技術(shù)。 搜索引擎利用容易被搜索和引用的方式有針對性地優(yōu)化網(wǎng)站,提高網(wǎng)站在搜索引擎中的自然排名,吸引更多的用戶(hù)訪(fǎng)問(wèn)網(wǎng)站,增加網(wǎng)站的訪(fǎng)問(wèn)量,并提高網(wǎng)站的銷(xiāo)售能力和宣傳能力,提升網(wǎng)站的品牌效應。
網(wǎng)站搜索引擎優(yōu)化的任務(wù)主要是了解和了解其他搜索引擎如何抓取網(wǎng)頁(yè),如何索引,如何確定搜索關(guān)鍵詞等相關(guān)技術(shù),從而優(yōu)化本網(wǎng)頁(yè)的內容,確保其能夠符合用戶(hù)的瀏覽習慣,并在不影響網(wǎng)民體驗的情況下提高搜索引擎排名的現代技術(shù),從而增加網(wǎng)站的訪(fǎng)問(wèn)量,最終提高網(wǎng)站的推廣或銷(xiāo)售能力網(wǎng)站。 基于搜索引擎優(yōu)化處理,其實(shí)是為了讓這個(gè)網(wǎng)站更容易被搜索引擎所接受,搜索引擎往往會(huì )比較不同網(wǎng)站的內容,然后通過(guò)瀏覽器將這些內容完整、直接、快速地提供給網(wǎng)絡(luò )用戶(hù)。
SEO優(yōu)化就是讓網(wǎng)站內容更符合搜索引擎的算法和排名規則,更符合用戶(hù)體驗。 通過(guò)網(wǎng)站內部結構的調整優(yōu)化和站外SEO的推廣優(yōu)化,使網(wǎng)站滿(mǎn)足搜索引擎收錄和排名的需要。 用戶(hù)在搜索引擎中搜索關(guān)鍵詞時(shí),可以提高關(guān)鍵詞的相對網(wǎng)頁(yè)排名,從而獲取用戶(hù)流量,吸引精準客戶(hù)。 出于銷(xiāo)售產(chǎn)品或服務(wù)的目的被帶到網(wǎng)站。
現場(chǎng)優(yōu)化主要包括:

1.關(guān)鍵詞分析【用戶(hù)搜索行為分析、數據分析】
它是SEO優(yōu)化中最重要的部分。 關(guān)鍵詞分析包括關(guān)鍵詞搜索量分析、關(guān)鍵詞抓取競爭對手全站排名分析、關(guān)鍵詞與網(wǎng)站相關(guān)性分析、關(guān)鍵詞布局、關(guān)鍵詞網(wǎng)站文案策劃等。
2、網(wǎng)站設計,根據用戶(hù)關(guān)心的問(wèn)題,設計用戶(hù)喜歡的網(wǎng)站風(fēng)格。
3、網(wǎng)站結構,設計符合搜索引擎爬蟲(chóng)偏好,有利于SEO優(yōu)化的網(wǎng)站結構。
網(wǎng)站結構不宜太復雜,網(wǎng)站內容不宜太深,用戶(hù)關(guān)心的重要內容要易于查找,有利于用戶(hù)的瀏覽習慣。 一般為樹(shù)狀目錄結構或扁平目錄結構。 網(wǎng)站導航清晰,分類(lèi)精細,頁(yè)面布局美觀(guān)。
seo優(yōu)化的作用是提高網(wǎng)站關(guān)鍵詞在搜索引擎中的排名。 用戶(hù)搜索關(guān)鍵詞時(shí),可以將其展示在比較靠前的位置,讓用戶(hù)更容易找到公司的產(chǎn)品、服務(wù)和網(wǎng)站,獲得更多的展示機會(huì )和用戶(hù)點(diǎn)擊量,增加企業(yè)的曝光率品牌,帶來(lái)客戶(hù)。 以達到銷(xiāo)售產(chǎn)品和增加營(yíng)業(yè)額的目的。

SEO優(yōu)化還有很多其他的作用,主要有以下幾點(diǎn):
1、增加公司產(chǎn)品和服務(wù)的曝光度和品牌影響力。
2、SEO是一種非常好的網(wǎng)絡(luò )營(yíng)銷(xiāo)方式,可以不斷獲取精準客戶(hù)。
3.seo可以獲得廣泛的客戶(hù),可以有效降低企業(yè)的銷(xiāo)售成本。
從長(cháng)遠來(lái)看,與關(guān)鍵詞推廣相比,搜索引擎優(yōu)化不需要為每個(gè)用戶(hù)的點(diǎn)擊付費,這比PPC更有優(yōu)勢。 搜索引擎優(yōu)化可以忽略搜索引擎之間的獨立性。 即使只針對某個(gè)搜索引擎進(jìn)行優(yōu)化,網(wǎng)站在其他搜索引擎中的排名也會(huì )相應提高,達到企業(yè)在關(guān)鍵詞推廣上重復付費才能達到的效果。 .
4、可以有效降低企業(yè)的服務(wù)成本,更高效地為用戶(hù)服務(wù)。
5、增加企業(yè)的軟實(shí)力,增強企業(yè)客戶(hù)的信譽(yù)度。
匯總:【實(shí)時(shí)數倉】介紹、需求分析、統計架構分析和ods層日志行為數據采集
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 132 次瀏覽 ? 2022-12-23 06:25
文章目錄
電子商務(wù)實(shí)時(shí)數倉簡(jiǎn)介1 普通實(shí)時(shí)計算與實(shí)時(shí)
普通的實(shí)時(shí)計算優(yōu)先考慮時(shí)效性,所以通過(guò)實(shí)時(shí)計算直接從數據源采集得到結果。 這樣做的時(shí)效性比較好,但缺點(diǎn)是計算過(guò)程中的中間結果還沒(méi)有結算,所以在面對大量實(shí)時(shí)性需求時(shí),計算復用性差(比如B想使用 A) 的結果,開(kāi)發(fā)成本隨需求線(xiàn)性上升。
實(shí)時(shí)數據倉庫是基于一定的數據倉庫概念,對數據處理過(guò)程進(jìn)行規劃和分層,目的是提高數據的可重用性(例如e可以直接使用b的結果)。
2 實(shí)時(shí)電子商務(wù)數據倉庫的分層
項目分為以下幾層
2 實(shí)時(shí)數倉需求分析 1 離線(xiàn)計算與實(shí)時(shí)計算的比較
離線(xiàn)計算:所有輸入數據在計算開(kāi)始前都是已知的,輸入數據不會(huì )改變。 一般計算量級較大,計算時(shí)間較長(cháng)。 比如今天凌晨一點(diǎn),從昨天積累的日志中計算出需要的結果。 最經(jīng)典的是Hadoop的MapReduce方法;
通常,報告是根據前(幾天)天(T + 1(n))的數據生成的。 雖然統計指標和報表很多,但對時(shí)效性不敏感。 從技術(shù)操作的角度來(lái)看,這部分是批量操作。 即根據一定范圍的數據一次性計算。
實(shí)時(shí)計算:輸入數據可以串行化的方式一個(gè)接一個(gè)地輸入處理,也就是說(shuō)不需要一開(kāi)始就知道所有的輸入數據。 與離線(xiàn)計算相比,運行時(shí)間短,計算量較小。 強調計算過(guò)程的時(shí)間要短,即調查后立即給出結果。
主要針對當日(T+0)數據的實(shí)時(shí)監控。 通常,業(yè)務(wù)邏輯比線(xiàn)下需求更簡(jiǎn)單,統計指標也更少,但更注重數據的時(shí)效性和用戶(hù)交互。 從技術(shù)操作的角度來(lái)看,這部分屬于流處理的操作。 根據不斷到達的數據進(jìn)行實(shí)時(shí)計算。
大數據主要有兩種設計架構:
Flink 的流批合一是使用 Flink-SQL 實(shí)現的。 處理兩種數據的SQL是一樣的,區別在于數據的日期。
2 統計場(chǎng)景 (1) 日統計報表或分析圖表需要收錄當天的部分
對于企業(yè)和網(wǎng)站的日常運營(yíng)和管理,如果僅僅依靠離線(xiàn)計算,往往不能滿(mǎn)足數據的時(shí)效性。 通過(guò)實(shí)時(shí)計算獲取天、分、秒甚至亞秒級的數據,更便于企業(yè)快速響應和調整業(yè)務(wù)。
因此,實(shí)時(shí)計算結果往往需要與離線(xiàn)數據進(jìn)行合并或對比,并在BI或統計平臺上展示。
(2)實(shí)時(shí)數據大屏監控
數據大屏是比BI工具或數據分析平臺更直觀(guān)的數據可視化方式。 尤其是一些大的促銷(xiāo)活動(dòng),更是成為必備的營(yíng)銷(xiāo)手段。
此外,還有一些特殊行業(yè),如交通、電信等,大屏監控幾乎是必備的監控手段。
(3) 數據預警或提醒
通過(guò)大數據實(shí)時(shí)計算得到的一些風(fēng)控預警和營(yíng)銷(xiāo)信息提示,可以快速讓風(fēng)控或營(yíng)銷(xiāo)部門(mén)獲得信息,以便采取各種應對措施。
例如,如果用戶(hù)在電商、金融平臺上進(jìn)行了一些非法或欺詐性的操作,大數據的實(shí)時(shí)計算可以快速篩選出情況并傳送給風(fēng)控部門(mén)進(jìn)行處理,甚至可以自動(dòng)攔截。 . 或者檢測到用戶(hù)的行為對某些產(chǎn)品有強烈的購買(mǎi)意愿,那么就可以將這些“商機”推送給客服部門(mén),讓客服主動(dòng)跟進(jìn)。
(4) 實(shí)時(shí)推薦系統
實(shí)時(shí)推薦是根據用戶(hù)自身屬性結合當前訪(fǎng)問(wèn)行為,通過(guò)實(shí)時(shí)推薦算法計算,將用戶(hù)可能喜歡的商品、新聞、視頻等推送給用戶(hù)。
這種系統一般由用戶(hù)畫(huà)像的批處理和用戶(hù)行為分析的流處理組成。
三 統計架構分析 1 離線(xiàn)架構
MQ的作用:
2 實(shí)時(shí)架構
4 日志數據采集1 模擬使用日志生成器
這里提供了一個(gè)模擬生成數據的jar包,可以生成日志并發(fā)送到指定端口。 大數據程序員需要了解如何從指定端口接收數據并處理數據。
上傳文件application.yml、gmall2022-mock-log-2022-11-28.jar。
根據實(shí)際需要修改application.yml。
使用模擬日志生成器的jar 運行
java -jar gmall2022-mock-log-2022-11-28.jar
目前還沒(méi)有地址接收日志,所以程序運行后的結果有如下錯誤
注意:ZooKeeper從3.5開(kāi)始,AdminServer的端口也是8080,如果在本機啟動(dòng)zk,可能會(huì )看到405錯誤,意思是找到了請求地址,但是接收方式不對。
2 本地測試(一)SSM和SpringBoot
Spring:幫助程序員創(chuàng )建對象和管理對象之間的關(guān)系。
SpringMVC:接收客戶(hù)端的請求并響應。
mybatis:ORM(ObjectRelationMapption),將關(guān)系數據庫中的表映射到j(luò )ava中的類(lèi)。
SpringBoot集成了SSM,協(xié)議大于配置。
(2) 創(chuàng )建SpringBoot a 創(chuàng )建一個(gè)空的父項目gmall2022-parent 來(lái)管理后續所有模塊module
為了把各個(gè)模塊放在一起,但是模塊還是相互獨立的,所以創(chuàng )建一個(gè)Empty
項目足夠; 如果父模塊管理子模塊,需要將父模塊的pom.xml文件設置為pom.xml。
b 新建一個(gè)SpringBoot模塊作為采集日志服務(wù)器
在父項目下添加一個(gè)Module,選擇Spring Initializr。
注意:有時(shí)候SpringBoot官方腳手架不穩定,可以切換Custom,選擇國內地址。
c配置項目名稱(chēng)和JDK版本
d 選擇版本,通過(guò)勾選自動(dòng)添加lombok、SpringWeb、Kafka相關(guān)依賴(lài)
(3) 演示測試
創(chuàng )建FirstController輸出SpringBoot處理流程。
幾個(gè)注釋說(shuō)明:
/**
* 回顧SpringMVC Controller
<p>
*/
//@Controller
@RestController
public class FirstController {
@RequestMapping("/first")
//@ResponseBody
public String first(@RequestParam("hahaa") String username,
@RequestParam("heihei") String password){
System.out.println(username + "---" + password);
return "success";
}
}
</p>
(4) 模擬采集埋點(diǎn)數據并進(jìn)行處理
采集過(guò)程如下。 在服務(wù)器上執行jar包,啟動(dòng)本機執行程序,存盤(pán)到windows,最后由Kafka消費數據。
a 在resources中添加logback.xml配置文件
%msg%n
${LOG_HOME}/app.log
${LOG_HOME}/app.%d{yyyy-MM-dd}.log
%msg%n
logback配置文件說(shuō)明
記錄器:描述如何選擇附加程序的控制器。
注意:如果單獨為一個(gè)類(lèi)指定,不要忘記修改類(lèi)的全限定名。
日志級別從低到高:TRACE、[DEBUG、INFO、WARN、ERROR]、FATAL。
配置完成后,程序運行時(shí)讀取的是目標文件下的類(lèi),而不是resources下的logback.xml。
要使用它,需要在類(lèi)中添加Slf4j注解。
b 修改SpringBoot核心配置文件application.propeties
#============== kafka ===================
# 指定kafka 代理地址,可以多個(gè)
spring.kafka.bootstrap-servers=hadoop101:9092,hadoop102:9092,hadoop103:9092
# 指定消息key和消息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
c 在LoggerController中添加一個(gè)方法,用于打印、放置和發(fā)送日志到Kafka主題
@RestController
@Slf4j
public class LoggerController {
<p>
// 不使用Slf4j注解需要自己定義接收日志的對象
// private static final org.slf4j.Logger log = org.slf4j.LoggerFactory.getLogger(LoggerController.class);
@Autowired
private KafkaTemplate kafkaTemplate;
@RequestMapping("/applog")
public String log(@RequestParam("param") String logStr){
// 1 打印輸出到控制臺
// System.out.println(logStr);
// 2 落盤(pán),使用logback完成
log.info(logStr);
// 3 發(fā)送到kafka主題
kafkaTemplate.send("ods_base_log",logStr);
return "success";
}
}
</p>
寫(xiě)在卡夫卡:
Properties props = new Properties();
props.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop101:9092");
props.setProperty(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"");
props.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"");
KafkaProducer kafkaProducer = new KafkaProducer(props);
kafkaProducer.send(
/**
* 生產(chǎn)者的分區策略:
* 1 通過(guò)分區號指定固定分區
* 2 指定key,根據key獲取哈希值,對分區數做模運算,決定將數據發(fā)送到那一個(gè)分區內
* 3 粘性分區,不停的向一個(gè)分區發(fā)送數據,滿(mǎn)足以下條件之一,會(huì )改變分區
* 1)大于batchsize(默認16K)
* 2)大于一定時(shí)間
*/
new ProducerRecord("ods_base_log",logStr)
);
但是,SpringBoot是一個(gè)全家桶,為一些常用的組件提供了一些類(lèi)。
d kafka常用命令
服務(wù)器上將kafka的默認分區數修改為4個(gè)。
vim /opt/module/kafka_2.11-2.4.1/config/server.properties
num.partitions=4
# 啟動(dòng)zookeeper
zk.sh start
# 啟動(dòng)kafka
kfk.sh start
# 查看所有主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --list
# 創(chuàng )建主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --topic first --partitions 4 --replication-factor 2
# 查看主題詳情信息
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --describe --topic first
# 刪除主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --delete --topic first
# 101生產(chǎn)消息
bin/kafka-console-producer.sh --broker-list hadoop101:9092 --topic frist
# 101消費消息
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic first
e 修改hadoop101上rt_applog目錄下的application.yml配置文件
修改地址和日期,地址為本機地址。
檢驗
啟動(dòng)kafka消費者進(jìn)行測試。
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic ods_base_log
在 Windows 上運行 Idea 程序 LoggerApplication。
運行rt_applog下的jar包。
解決方案:關(guān)鍵詞采集工具有哪些(三種常用查找關(guān)鍵詞APP軟件)
無(wú)論是在Google上獲客,在社交媒體上找客戶(hù),還是在B2B平臺上找買(mǎi)家,最重要的是選擇合適的“關(guān)鍵詞”。
關(guān)鍵詞是我們在運營(yíng)中必須更加關(guān)注的,也是我們必須挖掘和深化的方向。 能否為產(chǎn)品找到合適的關(guān)鍵詞,也會(huì )直接影響到產(chǎn)品的銷(xiāo)量。
那么如何從買(mǎi)家的角度選擇合適的關(guān)鍵詞呢?
為大家推薦三種常用的關(guān)鍵詞搜索APP軟件
01
谷歌關(guān)鍵詞規劃師
谷歌關(guān)鍵字規劃師
使用這個(gè)關(guān)鍵詞工具,我們可以統計分析關(guān)鍵詞的流量情況,了解關(guān)鍵詞的SEO難度,得到更多相關(guān)的關(guān)鍵詞提示。
Google 關(guān)鍵詞 Planner可以幫助我們詳細了解不同關(guān)鍵詞在Google Search上的用戶(hù)查詢(xún)情況,從而為網(wǎng)站制定合適的關(guān)鍵詞策略,讓網(wǎng)站盡快獲得搜索流量。
首先,您需要開(kāi)設一個(gè) Google Ads 帳戶(hù):
打開(kāi)Goog??le Ads賬戶(hù)后,進(jìn)入其主界面,選擇上方工具欄中的工具與設置>>規劃>>關(guān)鍵字規劃師:
打開(kāi)這個(gè)工具后,可以看到Google 關(guān)鍵詞 Planner提供了以下兩個(gè)功能:
01
發(fā)現新關(guān)鍵詞
顧名思義,這個(gè)工具的作用就是幫助我們發(fā)現更多新的關(guān)鍵詞。 打開(kāi)后界面如下:
在這個(gè)關(guān)鍵詞工具中,有兩個(gè)渠道可以發(fā)現新關(guān)鍵詞:“先輸入關(guān)鍵字”和“先指定網(wǎng)站URL”。
?、傧容斎腙P(guān)鍵詞:輸入關(guān)鍵詞就是輸入你自己的產(chǎn)品或服務(wù)的關(guān)鍵詞,谷歌會(huì )根據你輸入的關(guān)鍵詞搜索其他相關(guān)的關(guān)鍵詞。
這里可以輸入多個(gè)關(guān)鍵詞,用逗號關(guān)鍵詞。 例如,如果產(chǎn)品是包包,您可以輸入男士包包和女士包包,以便找到更多相關(guān)的關(guān)鍵詞。
輸入關(guān)鍵詞后,還需要進(jìn)行其他設置。 關(guān)鍵詞信息只是搜索條件之一,必須選擇正確的搜索語(yǔ)言和地區。 如果您搜索的是英文關(guān)鍵詞,您需要選擇英文作為語(yǔ)言和外國,例如美國,這樣您可以獲得更準確的數據。
?、谑紫戎付ňW(wǎng)站網(wǎng)址:輸入域名或頁(yè)面查找關(guān)鍵詞。 輸入網(wǎng)站網(wǎng)址,谷歌會(huì )把這個(gè)網(wǎng)站作為關(guān)鍵詞來(lái)源,然后搜索更多相關(guān)的關(guān)鍵詞。 同樣,您需要選擇相應的語(yǔ)言和地區作為搜索條件。
02
獲取搜索量和預測數據
查看關(guān)鍵字的搜索量和其他歷史指標,以及對關(guān)鍵字未來(lái)表現的預測。
與之前發(fā)現新關(guān)鍵詞的工具相比,這個(gè)獲取搜索量數據的關(guān)鍵詞工具用處不大。 對發(fā)現新關(guān)鍵詞幫助不大。 如果你已經(jīng)有一個(gè)很大的關(guān)鍵詞列表,你可以使用這個(gè)工具來(lái)查詢(xún)他們的搜索量和一些相關(guān)數據,但是這些數據也可以通過(guò)之前的關(guān)鍵詞發(fā)現工具來(lái)查看。
該工具與關(guān)鍵詞發(fā)現工具的區別主要在于廣告推廣方面。 通過(guò)其預測數據,廣告主可以知道關(guān)鍵詞廣告在不同預算下可以獲得的點(diǎn)擊次數。
最后,就是選擇合適的關(guān)鍵詞。 一般來(lái)說(shuō),選擇關(guān)鍵詞要考慮三個(gè)因素:搜索流量、商業(yè)價(jià)值、SEO競爭。
02
谷歌趨勢
谷歌趨勢
如果你想知道某個(gè)相關(guān)關(guān)鍵詞的流量數據,那么Google Trends這個(gè)工具對我們來(lái)說(shuō)就大有幫助了。
能夠按類(lèi)別查看關(guān)鍵詞趨勢,使用 Google Trends 為內容計時(shí),并顯示趨勢向上的關(guān)鍵詞。
它可以反映某個(gè)關(guān)鍵詞在不同時(shí)期在谷歌搜索引擎中的顯示頻率和相關(guān)數據統計,可以比較兩個(gè)或多個(gè)搜索詞的相對流行度。
03
回答公眾
本工具整合了谷歌關(guān)鍵詞,形成自己的數據庫,尤其是長(cháng)尾關(guān)鍵詞,因此特別適合消費者需求研究、搜索引擎優(yōu)化、競爭研究等。
AnswerThePublic可以幫助我們獲取產(chǎn)品相關(guān)問(wèn)題提示、產(chǎn)品相關(guān)介詞提示等多維度的廣告創(chuàng )意建議,也可以實(shí)時(shí)了解這些推薦創(chuàng )意的搜索熱度。
當在 AnswerThePublic 中輸入關(guān)鍵詞時(shí),它將顯示有關(guān)問(wèn)題、介詞和字母表的信息。 查看全部
匯總:【實(shí)時(shí)數倉】介紹、需求分析、統計架構分析和ods層日志行為數據采集
文章目錄
電子商務(wù)實(shí)時(shí)數倉簡(jiǎn)介1 普通實(shí)時(shí)計算與實(shí)時(shí)
普通的實(shí)時(shí)計算優(yōu)先考慮時(shí)效性,所以通過(guò)實(shí)時(shí)計算直接從數據源采集得到結果。 這樣做的時(shí)效性比較好,但缺點(diǎn)是計算過(guò)程中的中間結果還沒(méi)有結算,所以在面對大量實(shí)時(shí)性需求時(shí),計算復用性差(比如B想使用 A) 的結果,開(kāi)發(fā)成本隨需求線(xiàn)性上升。
實(shí)時(shí)數據倉庫是基于一定的數據倉庫概念,對數據處理過(guò)程進(jìn)行規劃和分層,目的是提高數據的可重用性(例如e可以直接使用b的結果)。
2 實(shí)時(shí)電子商務(wù)數據倉庫的分層
項目分為以下幾層
2 實(shí)時(shí)數倉需求分析 1 離線(xiàn)計算與實(shí)時(shí)計算的比較
離線(xiàn)計算:所有輸入數據在計算開(kāi)始前都是已知的,輸入數據不會(huì )改變。 一般計算量級較大,計算時(shí)間較長(cháng)。 比如今天凌晨一點(diǎn),從昨天積累的日志中計算出需要的結果。 最經(jīng)典的是Hadoop的MapReduce方法;
通常,報告是根據前(幾天)天(T + 1(n))的數據生成的。 雖然統計指標和報表很多,但對時(shí)效性不敏感。 從技術(shù)操作的角度來(lái)看,這部分是批量操作。 即根據一定范圍的數據一次性計算。
實(shí)時(shí)計算:輸入數據可以串行化的方式一個(gè)接一個(gè)地輸入處理,也就是說(shuō)不需要一開(kāi)始就知道所有的輸入數據。 與離線(xiàn)計算相比,運行時(shí)間短,計算量較小。 強調計算過(guò)程的時(shí)間要短,即調查后立即給出結果。
主要針對當日(T+0)數據的實(shí)時(shí)監控。 通常,業(yè)務(wù)邏輯比線(xiàn)下需求更簡(jiǎn)單,統計指標也更少,但更注重數據的時(shí)效性和用戶(hù)交互。 從技術(shù)操作的角度來(lái)看,這部分屬于流處理的操作。 根據不斷到達的數據進(jìn)行實(shí)時(shí)計算。
大數據主要有兩種設計架構:
Flink 的流批合一是使用 Flink-SQL 實(shí)現的。 處理兩種數據的SQL是一樣的,區別在于數據的日期。
2 統計場(chǎng)景 (1) 日統計報表或分析圖表需要收錄當天的部分
對于企業(yè)和網(wǎng)站的日常運營(yíng)和管理,如果僅僅依靠離線(xiàn)計算,往往不能滿(mǎn)足數據的時(shí)效性。 通過(guò)實(shí)時(shí)計算獲取天、分、秒甚至亞秒級的數據,更便于企業(yè)快速響應和調整業(yè)務(wù)。
因此,實(shí)時(shí)計算結果往往需要與離線(xiàn)數據進(jìn)行合并或對比,并在BI或統計平臺上展示。
(2)實(shí)時(shí)數據大屏監控
數據大屏是比BI工具或數據分析平臺更直觀(guān)的數據可視化方式。 尤其是一些大的促銷(xiāo)活動(dòng),更是成為必備的營(yíng)銷(xiāo)手段。
此外,還有一些特殊行業(yè),如交通、電信等,大屏監控幾乎是必備的監控手段。
(3) 數據預警或提醒
通過(guò)大數據實(shí)時(shí)計算得到的一些風(fēng)控預警和營(yíng)銷(xiāo)信息提示,可以快速讓風(fēng)控或營(yíng)銷(xiāo)部門(mén)獲得信息,以便采取各種應對措施。
例如,如果用戶(hù)在電商、金融平臺上進(jìn)行了一些非法或欺詐性的操作,大數據的實(shí)時(shí)計算可以快速篩選出情況并傳送給風(fēng)控部門(mén)進(jìn)行處理,甚至可以自動(dòng)攔截。 . 或者檢測到用戶(hù)的行為對某些產(chǎn)品有強烈的購買(mǎi)意愿,那么就可以將這些“商機”推送給客服部門(mén),讓客服主動(dòng)跟進(jìn)。
(4) 實(shí)時(shí)推薦系統
實(shí)時(shí)推薦是根據用戶(hù)自身屬性結合當前訪(fǎng)問(wèn)行為,通過(guò)實(shí)時(shí)推薦算法計算,將用戶(hù)可能喜歡的商品、新聞、視頻等推送給用戶(hù)。
這種系統一般由用戶(hù)畫(huà)像的批處理和用戶(hù)行為分析的流處理組成。
三 統計架構分析 1 離線(xiàn)架構
MQ的作用:
2 實(shí)時(shí)架構
4 日志數據采集1 模擬使用日志生成器
這里提供了一個(gè)模擬生成數據的jar包,可以生成日志并發(fā)送到指定端口。 大數據程序員需要了解如何從指定端口接收數據并處理數據。
上傳文件application.yml、gmall2022-mock-log-2022-11-28.jar。
根據實(shí)際需要修改application.yml。
使用模擬日志生成器的jar 運行
java -jar gmall2022-mock-log-2022-11-28.jar
目前還沒(méi)有地址接收日志,所以程序運行后的結果有如下錯誤
注意:ZooKeeper從3.5開(kāi)始,AdminServer的端口也是8080,如果在本機啟動(dòng)zk,可能會(huì )看到405錯誤,意思是找到了請求地址,但是接收方式不對。
2 本地測試(一)SSM和SpringBoot
Spring:幫助程序員創(chuàng )建對象和管理對象之間的關(guān)系。
SpringMVC:接收客戶(hù)端的請求并響應。
mybatis:ORM(ObjectRelationMapption),將關(guān)系數據庫中的表映射到j(luò )ava中的類(lèi)。
SpringBoot集成了SSM,協(xié)議大于配置。
(2) 創(chuàng )建SpringBoot a 創(chuàng )建一個(gè)空的父項目gmall2022-parent 來(lái)管理后續所有模塊module
為了把各個(gè)模塊放在一起,但是模塊還是相互獨立的,所以創(chuàng )建一個(gè)Empty
項目足夠; 如果父模塊管理子模塊,需要將父模塊的pom.xml文件設置為pom.xml。
b 新建一個(gè)SpringBoot模塊作為采集日志服務(wù)器
在父項目下添加一個(gè)Module,選擇Spring Initializr。
注意:有時(shí)候SpringBoot官方腳手架不穩定,可以切換Custom,選擇國內地址。
c配置項目名稱(chēng)和JDK版本
d 選擇版本,通過(guò)勾選自動(dòng)添加lombok、SpringWeb、Kafka相關(guān)依賴(lài)
(3) 演示測試
創(chuàng )建FirstController輸出SpringBoot處理流程。
幾個(gè)注釋說(shuō)明:
/**
* 回顧SpringMVC Controller
<p>

*/
//@Controller
@RestController
public class FirstController {
@RequestMapping("/first")
//@ResponseBody
public String first(@RequestParam("hahaa") String username,
@RequestParam("heihei") String password){
System.out.println(username + "---" + password);
return "success";
}
}
</p>
(4) 模擬采集埋點(diǎn)數據并進(jìn)行處理
采集過(guò)程如下。 在服務(wù)器上執行jar包,啟動(dòng)本機執行程序,存盤(pán)到windows,最后由Kafka消費數據。
a 在resources中添加logback.xml配置文件
%msg%n
${LOG_HOME}/app.log
${LOG_HOME}/app.%d{yyyy-MM-dd}.log
%msg%n
logback配置文件說(shuō)明
記錄器:描述如何選擇附加程序的控制器。
注意:如果單獨為一個(gè)類(lèi)指定,不要忘記修改類(lèi)的全限定名。
日志級別從低到高:TRACE、[DEBUG、INFO、WARN、ERROR]、FATAL。
配置完成后,程序運行時(shí)讀取的是目標文件下的類(lèi),而不是resources下的logback.xml。
要使用它,需要在類(lèi)中添加Slf4j注解。
b 修改SpringBoot核心配置文件application.propeties
#============== kafka ===================
# 指定kafka 代理地址,可以多個(gè)
spring.kafka.bootstrap-servers=hadoop101:9092,hadoop102:9092,hadoop103:9092
# 指定消息key和消息體的編解碼方式
spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer
c 在LoggerController中添加一個(gè)方法,用于打印、放置和發(fā)送日志到Kafka主題
@RestController
@Slf4j
public class LoggerController {
<p>

// 不使用Slf4j注解需要自己定義接收日志的對象
// private static final org.slf4j.Logger log = org.slf4j.LoggerFactory.getLogger(LoggerController.class);
@Autowired
private KafkaTemplate kafkaTemplate;
@RequestMapping("/applog")
public String log(@RequestParam("param") String logStr){
// 1 打印輸出到控制臺
// System.out.println(logStr);
// 2 落盤(pán),使用logback完成
log.info(logStr);
// 3 發(fā)送到kafka主題
kafkaTemplate.send("ods_base_log",logStr);
return "success";
}
}
</p>
寫(xiě)在卡夫卡:
Properties props = new Properties();
props.setProperty(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,"hadoop101:9092");
props.setProperty(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,"");
props.setProperty(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,"");
KafkaProducer kafkaProducer = new KafkaProducer(props);
kafkaProducer.send(
/**
* 生產(chǎn)者的分區策略:
* 1 通過(guò)分區號指定固定分區
* 2 指定key,根據key獲取哈希值,對分區數做模運算,決定將數據發(fā)送到那一個(gè)分區內
* 3 粘性分區,不停的向一個(gè)分區發(fā)送數據,滿(mǎn)足以下條件之一,會(huì )改變分區
* 1)大于batchsize(默認16K)
* 2)大于一定時(shí)間
*/
new ProducerRecord("ods_base_log",logStr)
);
但是,SpringBoot是一個(gè)全家桶,為一些常用的組件提供了一些類(lèi)。
d kafka常用命令
服務(wù)器上將kafka的默認分區數修改為4個(gè)。
vim /opt/module/kafka_2.11-2.4.1/config/server.properties
num.partitions=4
# 啟動(dòng)zookeeper
zk.sh start
# 啟動(dòng)kafka
kfk.sh start
# 查看所有主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --list
# 創(chuàng )建主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --topic first --partitions 4 --replication-factor 2
# 查看主題詳情信息
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --describe --topic first
# 刪除主題
bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --delete --topic first
# 101生產(chǎn)消息
bin/kafka-console-producer.sh --broker-list hadoop101:9092 --topic frist
# 101消費消息
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic first
e 修改hadoop101上rt_applog目錄下的application.yml配置文件
修改地址和日期,地址為本機地址。
檢驗
啟動(dòng)kafka消費者進(jìn)行測試。
bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic ods_base_log
在 Windows 上運行 Idea 程序 LoggerApplication。
運行rt_applog下的jar包。
解決方案:關(guān)鍵詞采集工具有哪些(三種常用查找關(guān)鍵詞APP軟件)
無(wú)論是在Google上獲客,在社交媒體上找客戶(hù),還是在B2B平臺上找買(mǎi)家,最重要的是選擇合適的“關(guān)鍵詞”。
關(guān)鍵詞是我們在運營(yíng)中必須更加關(guān)注的,也是我們必須挖掘和深化的方向。 能否為產(chǎn)品找到合適的關(guān)鍵詞,也會(huì )直接影響到產(chǎn)品的銷(xiāo)量。
那么如何從買(mǎi)家的角度選擇合適的關(guān)鍵詞呢?
為大家推薦三種常用的關(guān)鍵詞搜索APP軟件
01
谷歌關(guān)鍵詞規劃師
谷歌關(guān)鍵字規劃師
使用這個(gè)關(guān)鍵詞工具,我們可以統計分析關(guān)鍵詞的流量情況,了解關(guān)鍵詞的SEO難度,得到更多相關(guān)的關(guān)鍵詞提示。
Google 關(guān)鍵詞 Planner可以幫助我們詳細了解不同關(guān)鍵詞在Google Search上的用戶(hù)查詢(xún)情況,從而為網(wǎng)站制定合適的關(guān)鍵詞策略,讓網(wǎng)站盡快獲得搜索流量。
首先,您需要開(kāi)設一個(gè) Google Ads 帳戶(hù):
打開(kāi)Goog??le Ads賬戶(hù)后,進(jìn)入其主界面,選擇上方工具欄中的工具與設置>>規劃>>關(guān)鍵字規劃師:
打開(kāi)這個(gè)工具后,可以看到Google 關(guān)鍵詞 Planner提供了以下兩個(gè)功能:

01
發(fā)現新關(guān)鍵詞
顧名思義,這個(gè)工具的作用就是幫助我們發(fā)現更多新的關(guān)鍵詞。 打開(kāi)后界面如下:
在這個(gè)關(guān)鍵詞工具中,有兩個(gè)渠道可以發(fā)現新關(guān)鍵詞:“先輸入關(guān)鍵字”和“先指定網(wǎng)站URL”。
?、傧容斎腙P(guān)鍵詞:輸入關(guān)鍵詞就是輸入你自己的產(chǎn)品或服務(wù)的關(guān)鍵詞,谷歌會(huì )根據你輸入的關(guān)鍵詞搜索其他相關(guān)的關(guān)鍵詞。
這里可以輸入多個(gè)關(guān)鍵詞,用逗號關(guān)鍵詞。 例如,如果產(chǎn)品是包包,您可以輸入男士包包和女士包包,以便找到更多相關(guān)的關(guān)鍵詞。
輸入關(guān)鍵詞后,還需要進(jìn)行其他設置。 關(guān)鍵詞信息只是搜索條件之一,必須選擇正確的搜索語(yǔ)言和地區。 如果您搜索的是英文關(guān)鍵詞,您需要選擇英文作為語(yǔ)言和外國,例如美國,這樣您可以獲得更準確的數據。
?、谑紫戎付ňW(wǎng)站網(wǎng)址:輸入域名或頁(yè)面查找關(guān)鍵詞。 輸入網(wǎng)站網(wǎng)址,谷歌會(huì )把這個(gè)網(wǎng)站作為關(guān)鍵詞來(lái)源,然后搜索更多相關(guān)的關(guān)鍵詞。 同樣,您需要選擇相應的語(yǔ)言和地區作為搜索條件。
02
獲取搜索量和預測數據
查看關(guān)鍵字的搜索量和其他歷史指標,以及對關(guān)鍵字未來(lái)表現的預測。
與之前發(fā)現新關(guān)鍵詞的工具相比,這個(gè)獲取搜索量數據的關(guān)鍵詞工具用處不大。 對發(fā)現新關(guān)鍵詞幫助不大。 如果你已經(jīng)有一個(gè)很大的關(guān)鍵詞列表,你可以使用這個(gè)工具來(lái)查詢(xún)他們的搜索量和一些相關(guān)數據,但是這些數據也可以通過(guò)之前的關(guān)鍵詞發(fā)現工具來(lái)查看。
該工具與關(guān)鍵詞發(fā)現工具的區別主要在于廣告推廣方面。 通過(guò)其預測數據,廣告主可以知道關(guān)鍵詞廣告在不同預算下可以獲得的點(diǎn)擊次數。

最后,就是選擇合適的關(guān)鍵詞。 一般來(lái)說(shuō),選擇關(guān)鍵詞要考慮三個(gè)因素:搜索流量、商業(yè)價(jià)值、SEO競爭。
02
谷歌趨勢
谷歌趨勢
如果你想知道某個(gè)相關(guān)關(guān)鍵詞的流量數據,那么Google Trends這個(gè)工具對我們來(lái)說(shuō)就大有幫助了。
能夠按類(lèi)別查看關(guān)鍵詞趨勢,使用 Google Trends 為內容計時(shí),并顯示趨勢向上的關(guān)鍵詞。
它可以反映某個(gè)關(guān)鍵詞在不同時(shí)期在谷歌搜索引擎中的顯示頻率和相關(guān)數據統計,可以比較兩個(gè)或多個(gè)搜索詞的相對流行度。
03
回答公眾
本工具整合了谷歌關(guān)鍵詞,形成自己的數據庫,尤其是長(cháng)尾關(guān)鍵詞,因此特別適合消費者需求研究、搜索引擎優(yōu)化、競爭研究等。
AnswerThePublic可以幫助我們獲取產(chǎn)品相關(guān)問(wèn)題提示、產(chǎn)品相關(guān)介詞提示等多維度的廣告創(chuàng )意建議,也可以實(shí)時(shí)了解這些推薦創(chuàng )意的搜索熱度。
當在 AnswerThePublic 中輸入關(guān)鍵詞時(shí),它將顯示有關(guān)問(wèn)題、介詞和字母表的信息。
解決方案:數據技術(shù)篇之實(shí)時(shí)技術(shù)
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 82 次瀏覽 ? 2022-12-23 06:25
第 5 章實(shí)時(shí)技術(shù)
在大數據系統中,離線(xiàn)批處理技術(shù)可以滿(mǎn)足很多數據使用場(chǎng)景的需求,但在DT時(shí)代,每天面對的信息瞬息萬(wàn)變,越來(lái)越多的應用場(chǎng)景對數據的時(shí)效性提出了更高的要求。 要求。 數據的價(jià)值是時(shí)效性的。 當一條數據產(chǎn)生時(shí),如果不能及時(shí)處理并在業(yè)務(wù)系統中使用,數據就無(wú)法保持最高的“新鮮度”和價(jià)值最大化。 因此,阿里巴巴提出了流式實(shí)時(shí)處理技術(shù)來(lái)補充離線(xiàn)批處理技術(shù)。
流式數據處理一般具有以下特點(diǎn):
時(shí)效性高
常駐代表團
高性能要求
應用限制
5.1 流式架構
按功能分,主要包括:
資料采集
數據處理
數據存儲
數據服務(wù)
按數據采集類(lèi)型可分為:
數據庫變更日志:如MySQL binlog log、Hbase hlog log、OceanBase change log、Oracle change log等。
引擎訪(fǎng)問(wèn)日志:如用戶(hù)訪(fǎng)問(wèn)網(wǎng)站產(chǎn)生的Apache引擎日志、搜索引擎的接口查詢(xún)日志等。
數據采集原則:
數據大小限制:當達到限制條件時(shí),當前采集的新數據將被視為一批(例如一批512KB)。
time threshold limit:當時(shí)間達到一定條件時(shí),會(huì )將目前采集的新數據也作為一個(gè)batch,避免數據量小的時(shí)候不一直采集(比如寫(xiě)一個(gè)batch in 30秒)
消息系統和數據中間件
消息系統:
消息系統是數據庫變更的上游,其數據延遲遠低于數據中間件,但支持的吞吐量有限。 一般用作業(yè)務(wù)數據庫變更的消息傳遞,如下單、支付等消息。
消息中間件:
作為數據交換平臺,將采集的數據分發(fā)到下游處理大業(yè)務(wù)數據(每天幾十TB的容量)
時(shí)間敏感的吞吐量
消息系統
毫秒
低的
數據中間件
第二
高的
阿里采用的六九三引擎系統是阿里源提供的流計算系統:
流計算系統涵蓋了從數據采集到數據生產(chǎn)的所有環(huán)節,力求保障流計算的嚴謹可靠發(fā)展。 SQL語(yǔ)義提供的流式數據分析能力(StreamSQL),讓流式數據分析的門(mén)檻不復存在。 它在Storm的基礎上包裹了一層SQL語(yǔ)義,方便開(kāi)發(fā)者通過(guò)編寫(xiě)SQL實(shí)現實(shí)時(shí)計算,無(wú)需關(guān)心計算狀態(tài)的細節,大大提高開(kāi)發(fā)效率,降低流計算的門(mén)檻。 當然,它也支持傳統模式的開(kāi)發(fā),就像Hadoop中的Hive MapReduce關(guān)系一樣,根據不同的應用場(chǎng)景選擇不同的方式。 此外,StreamCompute還提供流計算開(kāi)發(fā)平臺。 在該平臺上,無(wú)需登錄服務(wù)器操作即可完成應用的相關(guān)運維,大大提高了運維效率。
業(yè)界廣泛使用的流計算系統:
Twitter的開(kāi)源Storm系統
雅虎的開(kāi)源S4系統
阿帕奇公園流媒體
弗林克
流數據處理原理,以Storm為例:
spout:topology的輸入,從數據中間件中讀取數據,按照自定義的分發(fā)規則發(fā)送給下游的bolt。 可以有多個(gè)輸入源。
bolt:業(yè)務(wù)處理單元,可以根據處理邏輯分為多個(gè)步驟,其中的數據分布規則也是自定義的。
實(shí)時(shí)任務(wù)的典型問(wèn)題:
(1)去重指標
去重分為:
精確的重復數據刪除。 在這種情況下,必須保留詳細數據。 當遇到內存問(wèn)題時(shí),可以使用數據傾斜來(lái)處理,可以將一個(gè)節點(diǎn)的內存壓力分攤到多個(gè)節點(diǎn)上。
模糊去重。當需要去重的詳細數據量非常大,對業(yè)務(wù)的準確性要求不高時(shí),可以使用相關(guān)的去重算法,將內存占用降低到千分之一甚至萬(wàn)分之一,提高內存利用率
去重方法:
?、俨悸∵^(guò)濾器
該算法是位數組算法的應用,不保存真正的明細數據,只保存明細數據哈希值對應的標記位。 當然會(huì )出現hash值沖突,但是錯誤率是可以控制的,計算出來(lái)的去重值比真實(shí)值要小。 使用該算法存儲1億條數據只需要100MB的空間。
適用于統計精度不高,統計維度值較多的場(chǎng)景。 比如統計全網(wǎng)各個(gè)商戶(hù)的UV數據顯示,記錄數達到千萬(wàn)條。因為各個(gè)維度之間,Bloom filter是可以共享的
?、?基數估計
該算法還利用散列的原理,根據數據的分散程度估計現有數據集的邊界,從而得到去重值的近似和。 此處估計的重復數據刪除值可能大于或小于實(shí)際值。 使用該算法存儲1億條數據只需要幾KB的內存。
適用場(chǎng)景:統計精度不高,統計維度很粗。 比如整個(gè)市場(chǎng)的UV數據,每天只有一條記錄。 基數估計不能在各個(gè)維度的值之間共享。 比如統計全天幾個(gè)小時(shí)的UV數據,需要24個(gè)基數估計對象,不適合細粒度的統計場(chǎng)景。
(2) 數據傾斜
解決方案:
?、偃ブ刂笜巳胪?br /> 通過(guò)對去重后的值進(jìn)行分桶,將相同的值放入同一個(gè)桶中進(jìn)行去重,最后將每個(gè)桶中的值相加得到總值。 在這里,CPU 和內存資源。
?、?非重復指標的桶
數據隨機分布到每個(gè)桶中,最后匯總每個(gè)桶的值,主要是利用每個(gè)桶的CPU容量。
(3) 交易處理
保證交易的冪等性:
?、?超時(shí)時(shí)間:由于數據處理是分批進(jìn)行的,當一批數據處理超時(shí)后,將從拓撲的spout端重新發(fā)送數據。 另外,批量處理的數據量不宜過(guò)大,應增加限流功能(限制一批數據的記錄數或容量等),避免數據處理超時(shí)。
?、?交易信息:每批數據都會(huì )附帶一個(gè)交易ID信息。 在重傳的情況下,開(kāi)發(fā)者可以根據交易信息判斷數據第一次到達和重傳時(shí)的不同處理邏輯。
?、?備份機制:開(kāi)發(fā)者需要保證內存數據可以通過(guò)外存恢復,因此需要將計算中使用的中間結果數據備份到外存。
實(shí)時(shí)任務(wù)在運行過(guò)程中,會(huì )計算出很多維度和指標,這些數據需要存儲在存儲系統中,用于恢復或關(guān)聯(lián)。 涉及三種類(lèi)型的數據:
中間計算結果:在實(shí)時(shí)應用處理過(guò)程中,會(huì )保存一些狀態(tài)(如去重指標的詳細數據),用于發(fā)生故障時(shí)利用數據庫中的數據恢復內存站點(diǎn)。
最終結果數據:指經(jīng)過(guò)ETL處理后的實(shí)時(shí)結果數據。 這些數據是實(shí)時(shí)更新的,寫(xiě)入頻率非常高,可以直接供下游使用。
維表數據:在離線(xiàn)計算系統中,通過(guò)同步工具導入到在線(xiàn)存儲系統中,實(shí)現實(shí)時(shí)任務(wù)與實(shí)時(shí)流數據的關(guān)聯(lián)。 維度表的使用將在后面的章節中討論。
對于海量數據的實(shí)時(shí)計算,一般采用非關(guān)系型數據庫來(lái)應對大量的并發(fā)讀寫(xiě)。 以下是數據統計中表名設計的一些時(shí)間體會(huì ):
(1)表名設計
設計規則:匯總層識別+數據域+主維度+時(shí)間維度
例如:dws_trd_slr_dtr,表示匯總層的交易數據,按照賣(mài)家主維度(slr)+截至當日0點(diǎn)(dtr)統計匯總。
這樣做的好處是,所有主維度相同的數據都放在一張物理表中,避免了表太多,難以維護。 另外從表名可以直觀(guān)的看出存儲了哪些數據內容,方便排查問(wèn)題。
(2) rowkey設計
設計規則:MD5+主維度+維度標識+子維度1+時(shí)間維度+子維度2
例如:賣(mài)家ID的MD5前四位+賣(mài)家ID+app+一級類(lèi)目ID+ddd+二級類(lèi)目ID
使用MD5的前四位作為rowkey的第一部分,可以對數據進(jìn)行哈希處理,使服務(wù)器整體負載均衡,避免熱點(diǎn)。 上例中賣(mài)家ID在主維度,查數據時(shí)必須傳入。 每個(gè)統計維度都會(huì )生成一個(gè)維度ID,用于rowkey上的區分。
5.2 流數據模型
流式數據模型一般分為五層:
(1)ODS:改變訂單粒度的過(guò)程,一個(gè)訂單有多條記錄。
(2) DWD:訂單粒度的支付記錄,一個(gè)訂單只有一條記錄
(3) DWS:賣(mài)家實(shí)時(shí)交易金額,一個(gè)賣(mài)家只有一條記錄,指標實(shí)時(shí)刷新。
(4)ADS:外賣(mài)專(zhuān)區的實(shí)時(shí)交易金額,僅供外賣(mài)商家使用
(5)DIM:訂單商品類(lèi)別與行業(yè)對應關(guān)系的維度表。
在流計算中,經(jīng)常需要將兩個(gè)實(shí)時(shí)流關(guān)聯(lián)一個(gè)主鍵,得到對應的時(shí)間安排。下圖是訂單信息表和支付信息表的關(guān)系示意圖
在上面的例子中,兩個(gè)表的數據是實(shí)時(shí)采集的,每有一條新的數據到來(lái),就在內存中的另一張表的當前全量數據中查找。 如果能找到,則表示關(guān)聯(lián)成功,直接輸出: 如果沒(méi)有找到,則將數據放入內存中自己表的數據集中等待。 另外,無(wú)論關(guān)聯(lián)是否成功,都需要將內存中的數據備份到外部存儲系統中。 當任務(wù)重啟時(shí),可以從外部存儲系統恢復內存數據,保證數據不丟失。 因為重啟時(shí),任務(wù)繼續運行,不會(huì )重新運行之前的數據。
另外,訂單記錄的變更可能會(huì )發(fā)生多次(比如訂單的多個(gè)字段被多次更新)。 這種情況下,需要根據訂單ID進(jìn)行去重,避免A表和B表多次關(guān)聯(lián)成功; 否則輸出到下游會(huì )有多條記錄,這樣得到的數據會(huì )重復。
(1) 為什么要用維表
數據未及時(shí)準備好
無(wú)法準確獲取全量最新數據
資料亂序
(2)維表的使用形式
滿(mǎn)載
增量加載
5.3 大促特色及保障
毫秒延遲
洪峰明顯
高安全性
(1) 如何優(yōu)化實(shí)時(shí)任務(wù)
獨享資源與共享資源策略
合理選擇緩存機制,盡量減少讀寫(xiě)庫的次數
合并計算單元以降低拓撲級別
共享內存對象以避免字符復制
平衡高吞吐量和低延遲
(2) 如何保證數據鏈路
進(jìn)行多機房容災和異地容災。下圖是多機房容災示意圖
(3) 如何進(jìn)行壓力測試
數據壓測:數據壓測主要是洪流存儲壓測,就是把數小時(shí)甚至幾天的數據累積起來(lái),在某個(gè)時(shí)刻全部釋放。
產(chǎn)品壓力測試:
?、?產(chǎn)品本身的壓力測試
采集大屏服務(wù)器所有讀操作的url,通過(guò)壓測平臺進(jìn)行壓測流量回放,按照QPS目標:500次/秒進(jìn)行壓測。 在壓測過(guò)程中,迭代優(yōu)化服務(wù)器性能,提升大屏應用的數據處理性能。
?、?前端頁(yè)面穩定性測試
在瀏覽器中打開(kāi)大屏頁(yè)面,進(jìn)行8-24小時(shí)的前端頁(yè)面穩定性測試。 監控大屏前端JS對客戶(hù)端瀏覽器的內存和CPU消耗,檢測并修復前端JS內存泄露等問(wèn)題,提高前端頁(yè)面的穩定性。
解決方案:目前網(wǎng)站怎么優(yōu)化才好?淺析當下網(wǎng)站優(yōu)化的新思維新方法
網(wǎng)站優(yōu)化在這個(gè)行業(yè)由來(lái)已久,許多優(yōu)化方法已經(jīng)約定俗成,并被反復采納和使用。 不得不說(shuō),搜索引擎的算法日新月異,用舊的概念和方法做優(yōu)化可能有點(diǎn)偏。 需要一些新思路和新方法。 這些東西需要長(cháng)期觀(guān)察和總結最新的優(yōu)質(zhì)站點(diǎn)。
1、不要老是傳統的企業(yè)網(wǎng)站。 營(yíng)銷(xiāo)網(wǎng)站更受搜索引擎歡迎。
傳統的網(wǎng)站模式千篇一律,缺乏新意,造成了人們的視覺(jué)疲勞。 一個(gè)營(yíng)銷(xiāo)網(wǎng)站,利用適當的圖文,直觀(guān)地展示產(chǎn)品的特點(diǎn)和優(yōu)勢,才能吸引大家的眼球。
2、網(wǎng)站內部頁(yè)面細節需要更新,內部鏈接網(wǎng)絡(luò )要逐步編制。
嘗試閱讀新聞列表頁(yè)面上的部分內容介紹。 以往的企業(yè)網(wǎng)站大多直接展示新聞標題列表; 公司簡(jiǎn)介和聯(lián)系我們頁(yè)面。 側邊欄最好設置新聞推薦等一些欄目,避免內鏈太少; 盡量在商品詳情頁(yè)的側邊欄展示一些商品推薦,增加商品的豐富度; 在新聞詳情頁(yè)下,最好設置相關(guān)閱讀等,增加文章的連貫性。 總而言之,內部?jì)热輵摼幊删W(wǎng)絡(luò )。
3、網(wǎng)站關(guān)鍵詞不一定越少越好。
很多人有一個(gè)誤區,認為關(guān)鍵詞設置的越少,網(wǎng)站賦予這個(gè)關(guān)鍵詞的權重越高,這個(gè)詞越容易出現。 有一定的道理,但這種現象在實(shí)際操作中并不明顯。 關(guān)鍵詞設置要遵循的原則是關(guān)鍵詞一定要有相關(guān)性,盡量多設置,十幾個(gè)也可以。 那么文章的信息量就盡可能的大,質(zhì)量就盡可能的高,體現出這些關(guān)鍵詞的密度。 關(guān)鍵詞會(huì )一個(gè)接一個(gè)的出現,帶動(dòng)一個(gè)接一個(gè),互相影響,更好的達到優(yōu)化效果。
4.外鏈作用不大,反鏈卻很有用。
外鏈現在是一個(gè)輔助功能,優(yōu)質(zhì)的外鏈平臺越來(lái)越少,所以做好內鏈顯得更為重要。 盡可能多做高質(zhì)量的友情鏈接,對網(wǎng)站是非常有利的。
5、優(yōu)質(zhì)的內鏈和流量起到核心作用。
內鏈怎么做,首先內容一定要高質(zhì)量,盡量偽原創(chuàng )和原創(chuàng ),即使是粘貼復制,也盡量插入一些圖片修改一下。 一天四五篇新聞是正確的做法。 一個(gè)制作精良的網(wǎng)站每天必須有四篇新聞文章。 無(wú)論你多么原創(chuàng ),它都是無(wú)用的。 流量不用多說(shuō),正規的引流必不可少。 查看全部
解決方案:數據技術(shù)篇之實(shí)時(shí)技術(shù)
第 5 章實(shí)時(shí)技術(shù)
在大數據系統中,離線(xiàn)批處理技術(shù)可以滿(mǎn)足很多數據使用場(chǎng)景的需求,但在DT時(shí)代,每天面對的信息瞬息萬(wàn)變,越來(lái)越多的應用場(chǎng)景對數據的時(shí)效性提出了更高的要求。 要求。 數據的價(jià)值是時(shí)效性的。 當一條數據產(chǎn)生時(shí),如果不能及時(shí)處理并在業(yè)務(wù)系統中使用,數據就無(wú)法保持最高的“新鮮度”和價(jià)值最大化。 因此,阿里巴巴提出了流式實(shí)時(shí)處理技術(shù)來(lái)補充離線(xiàn)批處理技術(shù)。
流式數據處理一般具有以下特點(diǎn):
時(shí)效性高
常駐代表團
高性能要求
應用限制
5.1 流式架構
按功能分,主要包括:
資料采集
數據處理
數據存儲
數據服務(wù)
按數據采集類(lèi)型可分為:
數據庫變更日志:如MySQL binlog log、Hbase hlog log、OceanBase change log、Oracle change log等。
引擎訪(fǎng)問(wèn)日志:如用戶(hù)訪(fǎng)問(wèn)網(wǎng)站產(chǎn)生的Apache引擎日志、搜索引擎的接口查詢(xún)日志等。
數據采集原則:
數據大小限制:當達到限制條件時(shí),當前采集的新數據將被視為一批(例如一批512KB)。
time threshold limit:當時(shí)間達到一定條件時(shí),會(huì )將目前采集的新數據也作為一個(gè)batch,避免數據量小的時(shí)候不一直采集(比如寫(xiě)一個(gè)batch in 30秒)
消息系統和數據中間件
消息系統:
消息系統是數據庫變更的上游,其數據延遲遠低于數據中間件,但支持的吞吐量有限。 一般用作業(yè)務(wù)數據庫變更的消息傳遞,如下單、支付等消息。
消息中間件:
作為數據交換平臺,將采集的數據分發(fā)到下游處理大業(yè)務(wù)數據(每天幾十TB的容量)
時(shí)間敏感的吞吐量
消息系統
毫秒
低的
數據中間件
第二
高的
阿里采用的六九三引擎系統是阿里源提供的流計算系統:
流計算系統涵蓋了從數據采集到數據生產(chǎn)的所有環(huán)節,力求保障流計算的嚴謹可靠發(fā)展。 SQL語(yǔ)義提供的流式數據分析能力(StreamSQL),讓流式數據分析的門(mén)檻不復存在。 它在Storm的基礎上包裹了一層SQL語(yǔ)義,方便開(kāi)發(fā)者通過(guò)編寫(xiě)SQL實(shí)現實(shí)時(shí)計算,無(wú)需關(guān)心計算狀態(tài)的細節,大大提高開(kāi)發(fā)效率,降低流計算的門(mén)檻。 當然,它也支持傳統模式的開(kāi)發(fā),就像Hadoop中的Hive MapReduce關(guān)系一樣,根據不同的應用場(chǎng)景選擇不同的方式。 此外,StreamCompute還提供流計算開(kāi)發(fā)平臺。 在該平臺上,無(wú)需登錄服務(wù)器操作即可完成應用的相關(guān)運維,大大提高了運維效率。
業(yè)界廣泛使用的流計算系統:
Twitter的開(kāi)源Storm系統
雅虎的開(kāi)源S4系統
阿帕奇公園流媒體

弗林克
流數據處理原理,以Storm為例:
spout:topology的輸入,從數據中間件中讀取數據,按照自定義的分發(fā)規則發(fā)送給下游的bolt。 可以有多個(gè)輸入源。
bolt:業(yè)務(wù)處理單元,可以根據處理邏輯分為多個(gè)步驟,其中的數據分布規則也是自定義的。
實(shí)時(shí)任務(wù)的典型問(wèn)題:
(1)去重指標
去重分為:
精確的重復數據刪除。 在這種情況下,必須保留詳細數據。 當遇到內存問(wèn)題時(shí),可以使用數據傾斜來(lái)處理,可以將一個(gè)節點(diǎn)的內存壓力分攤到多個(gè)節點(diǎn)上。
模糊去重。當需要去重的詳細數據量非常大,對業(yè)務(wù)的準確性要求不高時(shí),可以使用相關(guān)的去重算法,將內存占用降低到千分之一甚至萬(wàn)分之一,提高內存利用率
去重方法:
?、俨悸∵^(guò)濾器
該算法是位數組算法的應用,不保存真正的明細數據,只保存明細數據哈希值對應的標記位。 當然會(huì )出現hash值沖突,但是錯誤率是可以控制的,計算出來(lái)的去重值比真實(shí)值要小。 使用該算法存儲1億條數據只需要100MB的空間。
適用于統計精度不高,統計維度值較多的場(chǎng)景。 比如統計全網(wǎng)各個(gè)商戶(hù)的UV數據顯示,記錄數達到千萬(wàn)條。因為各個(gè)維度之間,Bloom filter是可以共享的
?、?基數估計
該算法還利用散列的原理,根據數據的分散程度估計現有數據集的邊界,從而得到去重值的近似和。 此處估計的重復數據刪除值可能大于或小于實(shí)際值。 使用該算法存儲1億條數據只需要幾KB的內存。
適用場(chǎng)景:統計精度不高,統計維度很粗。 比如整個(gè)市場(chǎng)的UV數據,每天只有一條記錄。 基數估計不能在各個(gè)維度的值之間共享。 比如統計全天幾個(gè)小時(shí)的UV數據,需要24個(gè)基數估計對象,不適合細粒度的統計場(chǎng)景。
(2) 數據傾斜
解決方案:
?、偃ブ刂笜巳胪?br /> 通過(guò)對去重后的值進(jìn)行分桶,將相同的值放入同一個(gè)桶中進(jìn)行去重,最后將每個(gè)桶中的值相加得到總值。 在這里,CPU 和內存資源。
?、?非重復指標的桶
數據隨機分布到每個(gè)桶中,最后匯總每個(gè)桶的值,主要是利用每個(gè)桶的CPU容量。
(3) 交易處理
保證交易的冪等性:
?、?超時(shí)時(shí)間:由于數據處理是分批進(jìn)行的,當一批數據處理超時(shí)后,將從拓撲的spout端重新發(fā)送數據。 另外,批量處理的數據量不宜過(guò)大,應增加限流功能(限制一批數據的記錄數或容量等),避免數據處理超時(shí)。
?、?交易信息:每批數據都會(huì )附帶一個(gè)交易ID信息。 在重傳的情況下,開(kāi)發(fā)者可以根據交易信息判斷數據第一次到達和重傳時(shí)的不同處理邏輯。
?、?備份機制:開(kāi)發(fā)者需要保證內存數據可以通過(guò)外存恢復,因此需要將計算中使用的中間結果數據備份到外存。
實(shí)時(shí)任務(wù)在運行過(guò)程中,會(huì )計算出很多維度和指標,這些數據需要存儲在存儲系統中,用于恢復或關(guān)聯(lián)。 涉及三種類(lèi)型的數據:
中間計算結果:在實(shí)時(shí)應用處理過(guò)程中,會(huì )保存一些狀態(tài)(如去重指標的詳細數據),用于發(fā)生故障時(shí)利用數據庫中的數據恢復內存站點(diǎn)。
最終結果數據:指經(jīng)過(guò)ETL處理后的實(shí)時(shí)結果數據。 這些數據是實(shí)時(shí)更新的,寫(xiě)入頻率非常高,可以直接供下游使用。
維表數據:在離線(xiàn)計算系統中,通過(guò)同步工具導入到在線(xiàn)存儲系統中,實(shí)現實(shí)時(shí)任務(wù)與實(shí)時(shí)流數據的關(guān)聯(lián)。 維度表的使用將在后面的章節中討論。
對于海量數據的實(shí)時(shí)計算,一般采用非關(guān)系型數據庫來(lái)應對大量的并發(fā)讀寫(xiě)。 以下是數據統計中表名設計的一些時(shí)間體會(huì ):
(1)表名設計
設計規則:匯總層識別+數據域+主維度+時(shí)間維度
例如:dws_trd_slr_dtr,表示匯總層的交易數據,按照賣(mài)家主維度(slr)+截至當日0點(diǎn)(dtr)統計匯總。
這樣做的好處是,所有主維度相同的數據都放在一張物理表中,避免了表太多,難以維護。 另外從表名可以直觀(guān)的看出存儲了哪些數據內容,方便排查問(wèn)題。
(2) rowkey設計
設計規則:MD5+主維度+維度標識+子維度1+時(shí)間維度+子維度2
例如:賣(mài)家ID的MD5前四位+賣(mài)家ID+app+一級類(lèi)目ID+ddd+二級類(lèi)目ID

使用MD5的前四位作為rowkey的第一部分,可以對數據進(jìn)行哈希處理,使服務(wù)器整體負載均衡,避免熱點(diǎn)。 上例中賣(mài)家ID在主維度,查數據時(shí)必須傳入。 每個(gè)統計維度都會(huì )生成一個(gè)維度ID,用于rowkey上的區分。
5.2 流數據模型
流式數據模型一般分為五層:
(1)ODS:改變訂單粒度的過(guò)程,一個(gè)訂單有多條記錄。
(2) DWD:訂單粒度的支付記錄,一個(gè)訂單只有一條記錄
(3) DWS:賣(mài)家實(shí)時(shí)交易金額,一個(gè)賣(mài)家只有一條記錄,指標實(shí)時(shí)刷新。
(4)ADS:外賣(mài)專(zhuān)區的實(shí)時(shí)交易金額,僅供外賣(mài)商家使用
(5)DIM:訂單商品類(lèi)別與行業(yè)對應關(guān)系的維度表。
在流計算中,經(jīng)常需要將兩個(gè)實(shí)時(shí)流關(guān)聯(lián)一個(gè)主鍵,得到對應的時(shí)間安排。下圖是訂單信息表和支付信息表的關(guān)系示意圖
在上面的例子中,兩個(gè)表的數據是實(shí)時(shí)采集的,每有一條新的數據到來(lái),就在內存中的另一張表的當前全量數據中查找。 如果能找到,則表示關(guān)聯(lián)成功,直接輸出: 如果沒(méi)有找到,則將數據放入內存中自己表的數據集中等待。 另外,無(wú)論關(guān)聯(lián)是否成功,都需要將內存中的數據備份到外部存儲系統中。 當任務(wù)重啟時(shí),可以從外部存儲系統恢復內存數據,保證數據不丟失。 因為重啟時(shí),任務(wù)繼續運行,不會(huì )重新運行之前的數據。
另外,訂單記錄的變更可能會(huì )發(fā)生多次(比如訂單的多個(gè)字段被多次更新)。 這種情況下,需要根據訂單ID進(jìn)行去重,避免A表和B表多次關(guān)聯(lián)成功; 否則輸出到下游會(huì )有多條記錄,這樣得到的數據會(huì )重復。
(1) 為什么要用維表
數據未及時(shí)準備好
無(wú)法準確獲取全量最新數據
資料亂序
(2)維表的使用形式
滿(mǎn)載
增量加載
5.3 大促特色及保障
毫秒延遲
洪峰明顯
高安全性
(1) 如何優(yōu)化實(shí)時(shí)任務(wù)
獨享資源與共享資源策略
合理選擇緩存機制,盡量減少讀寫(xiě)庫的次數
合并計算單元以降低拓撲級別
共享內存對象以避免字符復制
平衡高吞吐量和低延遲
(2) 如何保證數據鏈路
進(jìn)行多機房容災和異地容災。下圖是多機房容災示意圖
(3) 如何進(jìn)行壓力測試
數據壓測:數據壓測主要是洪流存儲壓測,就是把數小時(shí)甚至幾天的數據累積起來(lái),在某個(gè)時(shí)刻全部釋放。
產(chǎn)品壓力測試:
?、?產(chǎn)品本身的壓力測試
采集大屏服務(wù)器所有讀操作的url,通過(guò)壓測平臺進(jìn)行壓測流量回放,按照QPS目標:500次/秒進(jìn)行壓測。 在壓測過(guò)程中,迭代優(yōu)化服務(wù)器性能,提升大屏應用的數據處理性能。
?、?前端頁(yè)面穩定性測試
在瀏覽器中打開(kāi)大屏頁(yè)面,進(jìn)行8-24小時(shí)的前端頁(yè)面穩定性測試。 監控大屏前端JS對客戶(hù)端瀏覽器的內存和CPU消耗,檢測并修復前端JS內存泄露等問(wèn)題,提高前端頁(yè)面的穩定性。
解決方案:目前網(wǎng)站怎么優(yōu)化才好?淺析當下網(wǎng)站優(yōu)化的新思維新方法
網(wǎng)站優(yōu)化在這個(gè)行業(yè)由來(lái)已久,許多優(yōu)化方法已經(jīng)約定俗成,并被反復采納和使用。 不得不說(shuō),搜索引擎的算法日新月異,用舊的概念和方法做優(yōu)化可能有點(diǎn)偏。 需要一些新思路和新方法。 這些東西需要長(cháng)期觀(guān)察和總結最新的優(yōu)質(zhì)站點(diǎn)。
1、不要老是傳統的企業(yè)網(wǎng)站。 營(yíng)銷(xiāo)網(wǎng)站更受搜索引擎歡迎。
傳統的網(wǎng)站模式千篇一律,缺乏新意,造成了人們的視覺(jué)疲勞。 一個(gè)營(yíng)銷(xiāo)網(wǎng)站,利用適當的圖文,直觀(guān)地展示產(chǎn)品的特點(diǎn)和優(yōu)勢,才能吸引大家的眼球。

2、網(wǎng)站內部頁(yè)面細節需要更新,內部鏈接網(wǎng)絡(luò )要逐步編制。
嘗試閱讀新聞列表頁(yè)面上的部分內容介紹。 以往的企業(yè)網(wǎng)站大多直接展示新聞標題列表; 公司簡(jiǎn)介和聯(lián)系我們頁(yè)面。 側邊欄最好設置新聞推薦等一些欄目,避免內鏈太少; 盡量在商品詳情頁(yè)的側邊欄展示一些商品推薦,增加商品的豐富度; 在新聞詳情頁(yè)下,最好設置相關(guān)閱讀等,增加文章的連貫性。 總而言之,內部?jì)热輵摼幊删W(wǎng)絡(luò )。
3、網(wǎng)站關(guān)鍵詞不一定越少越好。
很多人有一個(gè)誤區,認為關(guān)鍵詞設置的越少,網(wǎng)站賦予這個(gè)關(guān)鍵詞的權重越高,這個(gè)詞越容易出現。 有一定的道理,但這種現象在實(shí)際操作中并不明顯。 關(guān)鍵詞設置要遵循的原則是關(guān)鍵詞一定要有相關(guān)性,盡量多設置,十幾個(gè)也可以。 那么文章的信息量就盡可能的大,質(zhì)量就盡可能的高,體現出這些關(guān)鍵詞的密度。 關(guān)鍵詞會(huì )一個(gè)接一個(gè)的出現,帶動(dòng)一個(gè)接一個(gè),互相影響,更好的達到優(yōu)化效果。

4.外鏈作用不大,反鏈卻很有用。
外鏈現在是一個(gè)輔助功能,優(yōu)質(zhì)的外鏈平臺越來(lái)越少,所以做好內鏈顯得更為重要。 盡可能多做高質(zhì)量的友情鏈接,對網(wǎng)站是非常有利的。
5、優(yōu)質(zhì)的內鏈和流量起到核心作用。
內鏈怎么做,首先內容一定要高質(zhì)量,盡量偽原創(chuàng )和原創(chuàng ),即使是粘貼復制,也盡量插入一些圖片修改一下。 一天四五篇新聞是正確的做法。 一個(gè)制作精良的網(wǎng)站每天必須有四篇新聞文章。 無(wú)論你多么原創(chuàng ),它都是無(wú)用的。 流量不用多說(shuō),正規的引流必不可少。
優(yōu)化的解決方案:Openresty+Lua+Kafka實(shí)現日志實(shí)時(shí)采集
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 246 次瀏覽 ? 2022-12-17 01:33
發(fā)表于 2022 年 6 月 20 日,由 admin
在很多數據采集場(chǎng)景中,Flume是一款高性能的采集日志工具,相信大家都有所了解。許多人認為 Flume 是一個(gè)組件。他們中的大多數人會(huì )想到 Flume 和 Kafka 的組合來(lái)進(jìn)行日志記錄采集。該方案具有高性能、高吞吐量、數據可靠性等諸多優(yōu)點(diǎn)。但是如果我們需要實(shí)時(shí)的采集日志,這顯然不是一個(gè)好的方案。原因如下:
目前,Flume 可以支持實(shí)時(shí)監控某個(gè)目錄下的數據文件。一旦目錄中的文件 采集 完成,它將被標記為完成標志。如果以后這個(gè)文件中有更多的數據,Flume 將不會(huì )被檢測到。
所以,我們更多的是用這個(gè)方案來(lái)計時(shí)采集,只要有新的數據目錄生成,我們就會(huì )采集這個(gè)目錄下的數據文件。
那么這篇文章就給大家介紹一下基于Openresty+Lua+Kafka的日志實(shí)時(shí)采集。
很多時(shí)候,我們需要對用戶(hù)的埋點(diǎn)數據進(jìn)行一個(gè)實(shí)時(shí)的采集,然后利用這些數據對用戶(hù)的行為做一些實(shí)時(shí)的分析。所以,當然,第一步是弄清楚如何采集實(shí)時(shí)數據。
我們這里采用的方案是Openresty+Lua+Kafka。
那么什么是 Openresty?這是官方報價(jià):
OpenResty 是一個(gè)基于 Nginx 和 Lua 的高性能 Web 平臺,集成了大量?jì)?yōu)秀的 Lua 庫、第三方模塊及其大部分依賴(lài)。用于方便地構建能夠處理超高并發(fā)和高擴展性的動(dòng)態(tài)Web應用程序、Web服務(wù)和動(dòng)態(tài)網(wǎng)關(guān)。
OpenResty 通過(guò)匯集各種精心設計的 Nginx 模塊,有效地將 Nginx 變成一個(gè)強大的通用 Web 應用平臺。這樣,Web開(kāi)發(fā)人員和系統工程師就可以使用Lu腳本語(yǔ)言調動(dòng)Nginx支持的各種C和Lua模塊,快速構建一個(gè)能夠處理10K甚至1000多個(gè)單機并發(fā)連接的高性能Web應用系統。
OpenResty 的目標是讓你的 web 服務(wù)直接運行在 Nginx 服務(wù)內部,充分利用 Nginx 的非阻塞 I/O 模型,不僅針對 HTTP 客戶(hù)端請求,甚至針對遠程后端,如 MySQL、PostgreSQL、Memcached 和Redis等均以一致的高性能響應。
簡(jiǎn)單的說(shuō),就是將客戶(hù)端的請求(本文指的是用戶(hù)的行為日志)通過(guò)Nginx投遞到我們指定的地方(Kafka),而為了實(shí)現這個(gè)需求,我們使用了Lua腳本,因為Openresty封裝了各種Lua模塊已經(jīng)安裝好,其中之一就是對Kafka模塊進(jìn)行分包。我們只需要寫(xiě)一個(gè)簡(jiǎn)單的腳本,將用戶(hù)的數據通過(guò)Nginx轉發(fā)給Kafka,方便后面消費數據。
下面是一張架構圖供大家理解:
這里簡(jiǎn)單總結一下使用Openresty+Lua+Kafka的優(yōu)勢:
1.支持多種業(yè)務(wù)數據,不同的業(yè)務(wù)數據,只需要配置不同的Lua腳本,就可以將不同的業(yè)務(wù)數據發(fā)送到Kafka的不同主題。
2、對用戶(hù)觸發(fā)的埋點(diǎn)數據進(jìn)行實(shí)時(shí)采集
3、高可靠的集群,由于Openresty是基于Nginx的,其集群具有非常高的性能和穩定性。
4.高并發(fā)。與tomcat、apache等web服務(wù)器相比,Nginx的并發(fā)度遠高于其他兩者。一般情況下,處理幾萬(wàn)并發(fā)并不難。
那我們就實(shí)踐一下吧。
Openresty安裝
本例采用單機部署形式。單機部署成功后,集群搭建和單機一樣,只是在不同的機器上執行相同的步驟。
注:本實(shí)驗基于centos7.0操作系統
1、下載Openresty依賴(lài):
yum install readline-devel pcre-devel openssl-devel gcc
2.編譯安裝Openresty:
#1.安裝openresty:
mkdir /opt/software
mkdir /opt/module
cd /opt/software/ # 安裝文件所在目錄
wget https://openresty.org/download ... ar.gz
tar -xzf openresty-1.9.7.4.tar.gz -C /opt/module/
cd /opt/module/openresty-1.9.7.4
#2.配置:
# 指定目錄為/opt/openresty,默認在/usr/local。
<p>
./configure --prefix=/opt/openresty \
--with-luajit \
--without-http_redis2_module \
--with-http_iconv_module
make
make install
</p>
3.安裝lua-resty-kafka
因為我們需要通過(guò)nginx+lua腳本將數據轉發(fā)給Kafka,所以在編寫(xiě)lua腳本的時(shí)候需要用到lua模塊中對Kafka的一些依賴(lài)。
#下載lua-resty-kafka:
cd /opt/software/
wget https://github.com/doujiang24/ ... r.zip
unzip master.zip -d /opt/module/
#拷貝kafka相關(guān)依賴(lài)腳本到openresty
cp -rf /opt/module/lua-resty-kafka-master/lib/resty/kafka/ /opt/openresty/lualib/resty/
注:由于大家都熟悉kafka,這里就不介紹它的安裝了。
Openresty安裝完成后,目錄結構如下:
drwxr-xr-x 2 root root 4096 Mar 24 14:26 bin
drwxr-xr-x 6 root root 4096 Mar 24 14:26 luajit
drwxr-xr-x 7 root root 4096 Mar 24 14:29 lualib
drwxr-xr-x 12 root root 4096 Mar 24 14:40 nginx
4.配置文件
編輯/opt/openresty/nginx/conf/nginx.conf
user nginx; #Linux的用戶(hù)
worker_processes auto;
worker_rlimit_nofile 100000;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
events {
worker_connections 102400;
multi_accept on;
use epoll;
http {
include mime.types;
default_type application/octet-stream;
<p>
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
resolver 8.8.8.8;
#resolver 127.0.0.1 valid=3600s;
sendfile on;
keepalive_timeout 65;
underscores_in_headers on;
gzip on;
include /opt/openresty/nginx/conf/conf.d/common.conf; #common.conf這個(gè)文件名字可自定義
}</p>
編輯/opt/openresty/nginx/conf/conf.d/common.conf
##api
lua_package_path "/opt/openresty/lualib/resty/kafka/?.lua;;";
lua_package_cpath "/opt/openresty/lualib/?.so;;";
lua_shared_dict ngx_cache 128m; # cache
lua_shared_dict cache_lock 100k; # lock for cache
server {
listen 8887; #監聽(tīng)端口
server_name 192.168.3.215; #埋點(diǎn)日志的ip地址或域名,多個(gè)域名之間用空格分開(kāi)
root html; #root指令用于指定虛擬主機的網(wǎng)頁(yè)根目錄,這個(gè)目錄可以是相對路徑,也可以是絕對路徑。
lua_need_request_body on; #打開(kāi)獲取消息體的開(kāi)關(guān),以便能獲取到消息體
access_log /var/log/nginx/message.access.log main;
error_log /var/log/nginx/message.error.log notice;
location = /lzp/message {
lua_code_cache on;
charset utf-8;
default_type 'application/json';
content_by_lua_file "/opt/openresty/nginx/lua/testMessage_kafka.lua";#引用的lua腳本
}
}
編輯/opt/openresty/nginx/lua/testMessage_kafka.lua
#創(chuàng )建目錄mkdir /opt/openresty/nginx/lua/
vim /opt/openresty/nginx/lua/testMessage_kafka.lua
#編輯內存如下:
解決方案:【ROS實(shí)時(shí)采集Android的圖像和IMU數據】的更多相關(guān)文章
基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據的性能測試
基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據通過(guò):授予客戶(hù)實(shí)現功能測試環(huán)境環(huán)境搭建使用前提使用方法運行程序效果展示無(wú)需在被監控主機上安裝代理即可實(shí)現功能,一鍵配對Linux遠程服務(wù)器對不同主機進(jìn)行性能監控。性能數據采集命令,并實(shí)時(shí)展示支持跨堡壘機采集實(shí)時(shí)性能數據(注意:定制開(kāi)發(fā),不通用)支持docker容器(因為程序是從docker容器中實(shí)現獲取性能的內部數據,所以目前只支持CPU、內存、I/O)使用前提可以是... 查看全部
優(yōu)化的解決方案:Openresty+Lua+Kafka實(shí)現日志實(shí)時(shí)采集
發(fā)表于 2022 年 6 月 20 日,由 admin
在很多數據采集場(chǎng)景中,Flume是一款高性能的采集日志工具,相信大家都有所了解。許多人認為 Flume 是一個(gè)組件。他們中的大多數人會(huì )想到 Flume 和 Kafka 的組合來(lái)進(jìn)行日志記錄采集。該方案具有高性能、高吞吐量、數據可靠性等諸多優(yōu)點(diǎn)。但是如果我們需要實(shí)時(shí)的采集日志,這顯然不是一個(gè)好的方案。原因如下:
目前,Flume 可以支持實(shí)時(shí)監控某個(gè)目錄下的數據文件。一旦目錄中的文件 采集 完成,它將被標記為完成標志。如果以后這個(gè)文件中有更多的數據,Flume 將不會(huì )被檢測到。
所以,我們更多的是用這個(gè)方案來(lái)計時(shí)采集,只要有新的數據目錄生成,我們就會(huì )采集這個(gè)目錄下的數據文件。
那么這篇文章就給大家介紹一下基于Openresty+Lua+Kafka的日志實(shí)時(shí)采集。
很多時(shí)候,我們需要對用戶(hù)的埋點(diǎn)數據進(jìn)行一個(gè)實(shí)時(shí)的采集,然后利用這些數據對用戶(hù)的行為做一些實(shí)時(shí)的分析。所以,當然,第一步是弄清楚如何采集實(shí)時(shí)數據。
我們這里采用的方案是Openresty+Lua+Kafka。
那么什么是 Openresty?這是官方報價(jià):
OpenResty 是一個(gè)基于 Nginx 和 Lua 的高性能 Web 平臺,集成了大量?jì)?yōu)秀的 Lua 庫、第三方模塊及其大部分依賴(lài)。用于方便地構建能夠處理超高并發(fā)和高擴展性的動(dòng)態(tài)Web應用程序、Web服務(wù)和動(dòng)態(tài)網(wǎng)關(guān)。
OpenResty 通過(guò)匯集各種精心設計的 Nginx 模塊,有效地將 Nginx 變成一個(gè)強大的通用 Web 應用平臺。這樣,Web開(kāi)發(fā)人員和系統工程師就可以使用Lu腳本語(yǔ)言調動(dòng)Nginx支持的各種C和Lua模塊,快速構建一個(gè)能夠處理10K甚至1000多個(gè)單機并發(fā)連接的高性能Web應用系統。
OpenResty 的目標是讓你的 web 服務(wù)直接運行在 Nginx 服務(wù)內部,充分利用 Nginx 的非阻塞 I/O 模型,不僅針對 HTTP 客戶(hù)端請求,甚至針對遠程后端,如 MySQL、PostgreSQL、Memcached 和Redis等均以一致的高性能響應。
簡(jiǎn)單的說(shuō),就是將客戶(hù)端的請求(本文指的是用戶(hù)的行為日志)通過(guò)Nginx投遞到我們指定的地方(Kafka),而為了實(shí)現這個(gè)需求,我們使用了Lua腳本,因為Openresty封裝了各種Lua模塊已經(jīng)安裝好,其中之一就是對Kafka模塊進(jìn)行分包。我們只需要寫(xiě)一個(gè)簡(jiǎn)單的腳本,將用戶(hù)的數據通過(guò)Nginx轉發(fā)給Kafka,方便后面消費數據。
下面是一張架構圖供大家理解:
這里簡(jiǎn)單總結一下使用Openresty+Lua+Kafka的優(yōu)勢:
1.支持多種業(yè)務(wù)數據,不同的業(yè)務(wù)數據,只需要配置不同的Lua腳本,就可以將不同的業(yè)務(wù)數據發(fā)送到Kafka的不同主題。
2、對用戶(hù)觸發(fā)的埋點(diǎn)數據進(jìn)行實(shí)時(shí)采集
3、高可靠的集群,由于Openresty是基于Nginx的,其集群具有非常高的性能和穩定性。
4.高并發(fā)。與tomcat、apache等web服務(wù)器相比,Nginx的并發(fā)度遠高于其他兩者。一般情況下,處理幾萬(wàn)并發(fā)并不難。
那我們就實(shí)踐一下吧。
Openresty安裝
本例采用單機部署形式。單機部署成功后,集群搭建和單機一樣,只是在不同的機器上執行相同的步驟。
注:本實(shí)驗基于centos7.0操作系統
1、下載Openresty依賴(lài):
yum install readline-devel pcre-devel openssl-devel gcc
2.編譯安裝Openresty:
#1.安裝openresty:
mkdir /opt/software
mkdir /opt/module
cd /opt/software/ # 安裝文件所在目錄
wget https://openresty.org/download ... ar.gz
tar -xzf openresty-1.9.7.4.tar.gz -C /opt/module/
cd /opt/module/openresty-1.9.7.4
#2.配置:
# 指定目錄為/opt/openresty,默認在/usr/local。
<p>

./configure --prefix=/opt/openresty \
--with-luajit \
--without-http_redis2_module \
--with-http_iconv_module
make
make install
</p>
3.安裝lua-resty-kafka
因為我們需要通過(guò)nginx+lua腳本將數據轉發(fā)給Kafka,所以在編寫(xiě)lua腳本的時(shí)候需要用到lua模塊中對Kafka的一些依賴(lài)。
#下載lua-resty-kafka:
cd /opt/software/
wget https://github.com/doujiang24/ ... r.zip
unzip master.zip -d /opt/module/
#拷貝kafka相關(guān)依賴(lài)腳本到openresty
cp -rf /opt/module/lua-resty-kafka-master/lib/resty/kafka/ /opt/openresty/lualib/resty/
注:由于大家都熟悉kafka,這里就不介紹它的安裝了。
Openresty安裝完成后,目錄結構如下:
drwxr-xr-x 2 root root 4096 Mar 24 14:26 bin
drwxr-xr-x 6 root root 4096 Mar 24 14:26 luajit
drwxr-xr-x 7 root root 4096 Mar 24 14:29 lualib
drwxr-xr-x 12 root root 4096 Mar 24 14:40 nginx
4.配置文件
編輯/opt/openresty/nginx/conf/nginx.conf
user nginx; #Linux的用戶(hù)
worker_processes auto;
worker_rlimit_nofile 100000;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
events {
worker_connections 102400;
multi_accept on;
use epoll;
http {
include mime.types;
default_type application/octet-stream;
<p>

log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
resolver 8.8.8.8;
#resolver 127.0.0.1 valid=3600s;
sendfile on;
keepalive_timeout 65;
underscores_in_headers on;
gzip on;
include /opt/openresty/nginx/conf/conf.d/common.conf; #common.conf這個(gè)文件名字可自定義
}</p>
編輯/opt/openresty/nginx/conf/conf.d/common.conf
##api
lua_package_path "/opt/openresty/lualib/resty/kafka/?.lua;;";
lua_package_cpath "/opt/openresty/lualib/?.so;;";
lua_shared_dict ngx_cache 128m; # cache
lua_shared_dict cache_lock 100k; # lock for cache
server {
listen 8887; #監聽(tīng)端口
server_name 192.168.3.215; #埋點(diǎn)日志的ip地址或域名,多個(gè)域名之間用空格分開(kāi)
root html; #root指令用于指定虛擬主機的網(wǎng)頁(yè)根目錄,這個(gè)目錄可以是相對路徑,也可以是絕對路徑。
lua_need_request_body on; #打開(kāi)獲取消息體的開(kāi)關(guān),以便能獲取到消息體
access_log /var/log/nginx/message.access.log main;
error_log /var/log/nginx/message.error.log notice;
location = /lzp/message {
lua_code_cache on;
charset utf-8;
default_type 'application/json';
content_by_lua_file "/opt/openresty/nginx/lua/testMessage_kafka.lua";#引用的lua腳本
}
}
編輯/opt/openresty/nginx/lua/testMessage_kafka.lua
#創(chuàng )建目錄mkdir /opt/openresty/nginx/lua/
vim /opt/openresty/nginx/lua/testMessage_kafka.lua
#編輯內存如下:
解決方案:【ROS實(shí)時(shí)采集Android的圖像和IMU數據】的更多相關(guān)文章

基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據的性能測試

基于Python結合InfluxDB和Grafana圖表實(shí)時(shí)采集Linux多主機性能數據通過(guò):授予客戶(hù)實(shí)現功能測試環(huán)境環(huán)境搭建使用前提使用方法運行程序效果展示無(wú)需在被監控主機上安裝代理即可實(shí)現功能,一鍵配對Linux遠程服務(wù)器對不同主機進(jìn)行性能監控。性能數據采集命令,并實(shí)時(shí)展示支持跨堡壘機采集實(shí)時(shí)性能數據(注意:定制開(kāi)發(fā),不通用)支持docker容器(因為程序是從docker容器中實(shí)現獲取性能的內部數據,所以目前只支持CPU、內存、I/O)使用前提可以是...
最新版:EditorTools2中文版 v2.6.19 電腦版
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 71 次瀏覽 ? 2022-12-17 01:25
EditorTools2免費版是一款專(zhuān)業(yè)的網(wǎng)頁(yè)助手軟件。EditorTools2中文版不僅綠色小巧,而且完全免費。還支持免安裝、免激活、免注冊等繁瑣的安裝步驟,讓大家一鍵下載打開(kāi)即可在線(xiàn)使用。它具有優(yōu)采云采集器、免發(fā)布、易用、穩定、低功耗等亮點(diǎn)。更重要的是,運行時(shí)無(wú)需人工看守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,全天候不間斷為您提供內容更新。
EditorTools2免費版提供多種智能采集解決方案,全面保障您的網(wǎng)站優(yōu)質(zhì)及時(shí)的內容更新,滿(mǎn)足長(cháng)期運行需求,讓您免于繁重的負擔and boring 網(wǎng)站從更新工作中解脫出來(lái),如此簡(jiǎn)單、高效、實(shí)用。并且支持信息的自由組合,是一款通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新內容的實(shí)用電腦軟件。
EditorTools2免費版的特點(diǎn)
1.【自動(dòng)無(wú)人值守】
無(wú)需人工值守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,實(shí)時(shí)高效采集,全天候為您提供內容更新。滿(mǎn)足長(cháng)期作業(yè)需求,讓您從繁重的工作中解脫出來(lái)
2、【應用廣泛】
最全能的采集軟件,支持任何類(lèi)型的網(wǎng)站采集,應用率高達99.9%,支持發(fā)布到所有類(lèi)型的網(wǎng)站程序,甚至采集本地文件,無(wú)借口釋放
3、【信息隨心】
支持信息的自由組合,通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新的內容
4.【任意格式文件下載】
無(wú)論靜態(tài)還是動(dòng)態(tài),無(wú)論是圖片、音樂(lè )、電影、軟件,還是PDF、WORD文檔甚至種子文件,只要你想要
5.【偽原創(chuàng )】
高速同義詞替換,多詞隨機替換,段落隨機排序,助力內容SEO
6. [無(wú)限多級頁(yè)面采集]
從支持多級目錄開(kāi)始,無(wú)論是縱向多層信息頁(yè)面,還是平行方向的多個(gè)內容頁(yè)面,亦或是AJAX調用頁(yè)面,都讓你輕松采集
7.【自由擴展】
開(kāi)放接口方式,免費二次開(kāi)發(fā),自定義任意功能,實(shí)現所有需求
軟件功能
1、設定好計劃后,可24小時(shí)自動(dòng)工作,無(wú)需人工干預
2、與網(wǎng)站分離,通過(guò)獨立制作的接口可以支持任何網(wǎng)站或數據庫
3、靈活強大的采集規則不僅僅是采集文章,采集任何類(lèi)型的信息
4、體積小、功耗低、穩定性好非常適合運行在服務(wù)器上
5.所有規則均可導入導出,資源靈活
6.使用FTP上傳文件,穩定安全
7.下載上傳支持斷點(diǎn)續傳
8.高速 偽原創(chuàng )
9. 可以選擇倒序、順序、隨機采集文章
10.支持自動(dòng)列出網(wǎng)址
11、支持采集為網(wǎng)站,其數據分布在多層頁(yè)面
12.自由設置采集數據項,每個(gè)數據項可以單獨篩選排序
13.支持分頁(yè)內容采集
14.支持任意格式和類(lèi)型的文件(包括圖片、視頻)下載
15.可以破解防盜鏈文件
16.支持動(dòng)態(tài)文件URL解析
17. 支持采集 用于需要登錄訪(fǎng)問(wèn)的網(wǎng)頁(yè)
18.可以設置關(guān)鍵詞采集
19.可設置敏感詞防止采集
20.可以設置圖片水印
21、支持發(fā)布帶回復的文章,可廣泛應用于論壇、博客等項目
22、與采集數據分離的發(fā)布參數項可以自由對應采集數據或預設值,大大增強發(fā)布規則的復用性
23.支持隨機選擇發(fā)布賬號
24.支持任何已發(fā)布項目的語(yǔ)言翻譯
25.支持轉碼和UBB碼
26.可選擇文件上傳自動(dòng)創(chuàng )建年月日目錄
27.模擬發(fā)布支持網(wǎng)站無(wú)法安裝界面的發(fā)布操作
28.程序能正常運行
29.防止網(wǎng)絡(luò )運營(yíng)商劫持HTTP功能
30.單個(gè)采集釋放可以手動(dòng)執行
31、詳細的工作流程監控和信息反饋,讓您快速了解工作狀態(tài)
EditorTools2免費版教程
1. [使用登記](méi)
1.通過(guò)注冊獲得ET的使用授權;
打開(kāi)主菜單-授權注冊,填寫(xiě)您在ET官方網(wǎng)站(非論壇)注冊的有效賬號,注冊使用即可獲得ET授權
2.【系統設置】
打開(kāi)主菜單-系統-基本設置,進(jìn)行各項系統設置,如圖
1、設置工作參數;
根據需要設置工作參數,見(jiàn)圖
?、? 開(kāi)機自動(dòng)運行ET:?jiǎn)?dòng)電腦進(jìn)入系統后,ET程序會(huì )自動(dòng)運行;
?、? ET啟動(dòng)后自動(dòng)工作:ET啟動(dòng)運行后,將自動(dòng)執行上次使用ET時(shí)選擇的工作計劃。只有啟用此項,才會(huì )自動(dòng)保存當前選中的工作計劃;
?、? 啟動(dòng)后最小化:ET啟動(dòng)后,隱藏主窗口,只顯示托盤(pán)圖標;
?、? Ignore blanks at the beginning and end of the rule:?jiǎn)⒂么隧椇?,采集配置中的每條規則都會(huì )自動(dòng)去掉開(kāi)頭和結尾的空格、回車(chē)、換行等空白字符,從而避免用戶(hù)輸入較多空格或換行導致規則分析失??;如果用戶(hù)需要受益
?、? 使用空格或換行符確定規則的起止邊界,請取消勾選;
?、? 方案執行間隔時(shí)間:當執行自動(dòng)工作并選擇多個(gè)方案時(shí),當一個(gè)方案的當前列表采集完成后,間隔多長(cháng)時(shí)間將采集替換為下一個(gè)方案;
?、? 訪(fǎng)問(wèn)網(wǎng)絡(luò )超時(shí)時(shí)間:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )無(wú)響應時(shí)強制斷開(kāi)連接的時(shí)間;
?、? 網(wǎng)絡(luò )重試次數:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )失敗自動(dòng)重試的次數,如采集網(wǎng)頁(yè)、下載文件、FTP上傳等,這是2.2版本新增的功能;
?、? 訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗后自動(dòng)重啟ET:設置訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗一定次數后自動(dòng)重啟ET,解決一些可能導致網(wǎng)絡(luò )擁堵無(wú)法繼續正常工作的問(wèn)題;該功能僅在自動(dòng)工作時(shí)生效,停止自動(dòng)工作失敗計數將被清零,重試訪(fǎng)問(wèn)不計入;這是2.3.7版本的新特性;
2.設置代理
如果通過(guò)代理上網(wǎng),請設置訪(fǎng)問(wèn)網(wǎng)頁(yè)的代理參數,如圖
Only for 采集:勾選此項,代理設置只會(huì )對采集網(wǎng)頁(yè)生效,發(fā)布時(shí)不會(huì )使用代理。這是2.3.8版本的新功能
3.設置劫持特征碼
很多地區的電信寬帶用戶(hù)在上網(wǎng)時(shí)會(huì )強制將訪(fǎng)問(wèn)信息替換成訪(fǎng)問(wèn)信息中的一些代碼,這樣用戶(hù)只能通過(guò)代碼中的框框查看自己原本想訪(fǎng)問(wèn)的網(wǎng)頁(yè),這通常是用于顯示電信廣告或執行其他隱蔽操作,這種行為稱(chēng)為劫持瀏覽器;出現這種情況時(shí),ET的采集源代碼只能獲取這些劫持代碼,無(wú)法獲取采集網(wǎng)頁(yè)源代碼。通過(guò)設置這些劫持代碼的特征字符串,ET會(huì )嘗試突破劫持訪(fǎng)問(wèn)真實(shí)的網(wǎng)頁(yè)源代碼,并且最多可以重試訪(fǎng)問(wèn)URL 5次
4.設置用戶(hù)代理
網(wǎng)站通過(guò)userAgent判斷當前用戶(hù)使用的是什么瀏覽器,并根據瀏覽器可以支持的功能提供相應的功能。瀏覽器在訪(fǎng)問(wèn)網(wǎng)頁(yè)時(shí),通常會(huì )發(fā)送一個(gè)標識字符串來(lái)告訴網(wǎng)站這是什么瀏覽器軟件,而我們訪(fǎng)問(wèn)的部分網(wǎng)站會(huì )對UserAgent進(jìn)行限制,我們可以在基本設置中修改UserAgent ,也可以點(diǎn)擊'Get Local UserAgent'按鈕獲取本地IE默認UserAgent
5.設置支持的語(yǔ)言
采集一些網(wǎng)頁(yè),網(wǎng)站可能會(huì )勾選支持的語(yǔ)言,用戶(hù)可以在這里調整。
6.鎖定設置
打開(kāi)主菜單-系統-鎖設置,如圖:
該函數用于設置打開(kāi)每個(gè)配置窗口時(shí)的密碼。設置鎖定密碼后,使用菜單鎖定功能,防止用戶(hù)離開(kāi)計算機后,其他人無(wú)法訪(fǎng)問(wèn)和操作各項配置。
3.【前臺操作】
1.【選擇工作計劃】
工作計劃包括從源頭獲取原創(chuàng )信息、信息處理、最終發(fā)布到目標網(wǎng)站等一系列工作的所有設置說(shuō)明。它是 ET 自動(dòng) 采集 工作的指揮官。制定好后,我們在需要的方案(方案制定見(jiàn)用戶(hù)手冊-設置)后,就可以在主窗口選擇工作方案,開(kāi)始采集工作。
?、?了解節目區域;
主窗口左上角的樹(shù)狀目錄區為方案區,點(diǎn)擊鼠標右鍵彈出操作菜單
?、? 檢查選項;
點(diǎn)擊程序名前的選擇框,選擇要執行的程序,可以選擇多個(gè),
如果選擇的場(chǎng)景缺少關(guān)鍵配置,會(huì )提示并取消勾選
ET在工作時(shí),會(huì )先從當前的焦點(diǎn)方案開(kāi)始執行,即藍色高亮的方案,見(jiàn)圖4中的'網(wǎng)站-discuz 6.0 (with reply)'
多個(gè)選定的程序將循環(huán)執行。
在主窗口右上角的文章列表區,會(huì )顯示選中的焦點(diǎn)項目的待定文章。
右擊程序名稱(chēng),彈出菜單如圖
點(diǎn)擊Edit Scheme進(jìn)入方案編輯窗口
雙擊方案名稱(chēng),直接進(jìn)入方案編輯窗口。
2.自動(dòng)工作
選擇好要執行的工作計劃后,點(diǎn)擊主窗口左下方的“自動(dòng)”按鈕即可開(kāi)始全自動(dòng)工作。從此,用戶(hù)可以扔掉鼠標鍵盤(pán)和繁瑣的網(wǎng)站更新,和朋友出去玩,網(wǎng)站有自己的ET默默為你采集更新。要停止自動(dòng)工作,請單擊“停止”按鈕;
ET支持命令行啟動(dòng),參數/auto可以啟動(dòng)自動(dòng)工作,命令行使用示例:d:\editortools.exe /auto
3.手工作業(yè)
在調試解決方案時(shí),通常使用采集手動(dòng)操作。
?、?、采集目錄;
點(diǎn)擊主窗口左下方的'采集Category'按鈕,ET會(huì )對當前選中的焦點(diǎn)方案執行directory采集動(dòng)作,如果沒(méi)有焦點(diǎn)方案則依次執行
采集目錄信息顯示在主窗口右上角的文章列表區。
注意:修改計劃的采集規則時(shí),未發(fā)布的文章會(huì )自動(dòng)清除,包括發(fā)送失敗的文章,防止用戶(hù)繼續使用采集 的錯誤 文章 條目
?、?、處理文章;
當文章列表區有文章需要處理時(shí),點(diǎn)擊主窗口左下方的‘處理文章’按鈕,文章中的第一項文章 列表區域將按順序處理 Pending 文章execution采集action
文章 加工過(guò)程中,工作記錄會(huì )顯示在主窗口右下方的信息區,
加工完成后,文章列表區對應條目會(huì )顯示加工狀態(tài)
?、? 另一種手動(dòng) 文章 方法
在文章列表區,雙擊一個(gè)文章條目將對文章執行采集動(dòng)作,無(wú)論文章是否已被處理或不是。
4. 了解文章列表區
主窗口右上角的表格區是文章列表區,顯示已執行計劃的pending 文章,
?、? 文章列表區各列說(shuō)明;
文章采集Title:這是采集規則得到的文章標題-列表分析規則,如果采集規則沒(méi)有設置解析title數據項規則,那么ET會(huì )使用這里的文章采集標題作為發(fā)布標題,文章采集標題可以更改,點(diǎn)擊標題后面的省略號按鈕即可進(jìn)入編輯狀態(tài)
Status - Send: 當此項的值為YES時(shí),表示這篇文章文章已經(jīng)發(fā)布成功
Status-Sensitive:當此項的值為YES時(shí),表示文章文本收錄敏感關(guān)鍵詞
Status-Error: 0表示沒(méi)有錯誤,其他錯誤碼含義參考相關(guān)主題
Status - Processing:勾選文章項表示已經(jīng)執行,可以點(diǎn)擊取消勾選使其再次執行
?、?、轉換顯示碼
右擊文章列表區,彈出編碼菜單
?、? 雙擊執行文章采集;
上一節提到,可以雙擊文章列表區的一個(gè)文章條目,對其執行采集;
?、?、瀏覽按鈕
點(diǎn)擊文章條目的瀏覽按鈕可以訪(fǎng)問(wèn)文章的網(wǎng)址,用于確認網(wǎng)址是否正確、查看網(wǎng)頁(yè)源代碼等。
5.認識信息欄
信息欄用于跟蹤執行過(guò)程,反饋各種信息。是了解ET工作情況,解決采集遇到問(wèn)題的重要工具。
?、? 工作記錄:
該欄記錄了ET每一步的工作過(guò)程和狀態(tài),包括目錄采集和文章處理兩部分。我們可以通過(guò)工作記錄知道采集執行是否正確完成。問(wèn)題是什么?當出現問(wèn)題時(shí),用戶(hù)可以根據信息欄中的提示和其他反饋內容,快速準確地找到故障原因并解決。
?、?、采集源碼:
該欄顯示采集頁(yè)面在執行過(guò)程中的采集列表頁(yè)、文章頁(yè)面、文章頁(yè)面等的源代碼。通過(guò)使用本專(zhuān)欄源碼,您可以輕松進(jìn)行規則測試,提供規則定制依據。
注意有些網(wǎng)站會(huì )根據不同的訪(fǎng)問(wèn)瀏覽器顯示不同的源碼,所以自定義ET的采集規則時(shí),以本欄源碼為準,例如采集為'SMF 1.1 .5'在規則示例中,通過(guò)IE訪(fǎng)問(wèn)的源代碼網(wǎng)站和通過(guò)采集器獲取的優(yōu)采云是不同的。
?、? 分析數據:
該欄目展示了文章過(guò)程中各個(gè)數據項的信息,從解析的原創(chuàng )代碼,到排序后的代碼,再到URL修正后的代碼。通過(guò)查看該欄目,用戶(hù)可以了解設置的數據項分析規則是否準確,排序組規則是否完善,最終信息是否符合您的要求。
例如:當工作記錄欄提示錯誤‘文數大于或小于發(fā)布設置’時(shí),我們可以查看該欄‘文’數據項,判斷是大于還是小于發(fā)布設置,無(wú)論是正常原因還是由于整理組設置不當,調整每一個(gè)設置。
?、?、發(fā)送代碼
該欄顯示ET向發(fā)布網(wǎng)站發(fā)送的數據,包括文章校驗部分和文章發(fā)布部分;
通過(guò)該欄信息,用戶(hù)可以通過(guò)一系列的分析和排序操作了解提交給發(fā)布網(wǎng)站的數據,從而查看其采集規則數據項和發(fā)布參數設置規則是正確的,完整的。
?、? 退貨信息
該欄顯示了ET向發(fā)布網(wǎng)站發(fā)送數據后發(fā)布網(wǎng)站的反饋,包括文章檢查反饋和文章發(fā)布反饋;
通過(guò)查看本專(zhuān)欄,我們可以清楚地看到采集進(jìn)程出錯的大部分原因。
某些接口返回錯誤信息時(shí),信息可能是HTML代碼。不熟悉 HTML 代碼的用戶(hù)很難閱讀。點(diǎn)擊WEB瀏覽按鈕,可以在操作系統默認的瀏覽器中方便地查看。
運行要求
一、【操作系統要求】
EditorTools是一款win32軟件,可運行于微軟簡(jiǎn)體中文版Windows xp/2000/2003/2008/vista/win7等操作系統環(huán)境。我們對軟件中的上述操作系統進(jìn)行了大量的測試和實(shí)地考察,確保EditorTools能夠在上述系統上安全、穩定地運行。
如果您選擇在非簡(jiǎn)體中文的Windows操作系統下運行ET,您可能會(huì )遇到界面顯示亂碼等問(wèn)題。你需要自己測試一下。通常安裝標準的簡(jiǎn)體中文字體庫(GB2312)即可解決。
2.【配套環(huán)境要求】
EditorTools2要求電腦有如下軟件環(huán)境
mdac 2.8 或更高版本(ADO 數據庫驅動(dòng)程序)
注冊scrrun.dll(用于讀寫(xiě)腳本和文本文件)
注冊vbscript.dll(VBScript腳本相關(guān)支持文件)
免費的:navicat premium中文免費版功能
navicat premium 中文免費版是一款非常強大的數據管理工具,可以有很多功能鏈接到各種數據庫。它允許用戶(hù)存儲不同類(lèi)型的文件,如過(guò)程、事件、觸發(fā)器、視圖等,這將使用戶(hù)更容易使用它。
navicat premium中文免費版功能
1.無(wú)縫
數據可以無(wú)縫遷移,傳輸過(guò)程中可以同步,讓用戶(hù)享受無(wú)延遲的數據傳輸體驗。
2.查詢(xún)
它可以幫助用戶(hù)更好的查詢(xún)軟件中的信息,幫助用戶(hù)更好的編輯和創(chuàng )建,從而更快的生成代碼。
三、合作
讓用戶(hù)的連接設置、模型、查詢(xún)等東西同步到這個(gè)軟件的服務(wù)器上,方便用戶(hù)實(shí)時(shí)訪(fǎng)問(wèn)。
4.工具
提供了很多豐富的工具供用戶(hù)使用,讓用戶(hù)在查詢(xún)和使用數據的時(shí)候有一個(gè)更快的過(guò)程。
navicat premium中文免費版使用方法
1、打開(kāi)軟件后,選擇要連接的數據庫類(lèi)型,如圖。
2、然后設置連接名稱(chēng)等信息,輸入ip地址等信息。
3、完成后可以點(diǎn)擊鏈接測試按鈕測試是否正確。
4.雙擊左邊的鏈接,選擇一個(gè)數據庫,選擇一個(gè)表,可以看到所有的表信息。
5、可以在表信息中添加數據,修改數據等操作,然后記得保存。 查看全部
最新版:EditorTools2中文版 v2.6.19 電腦版
EditorTools2免費版是一款專(zhuān)業(yè)的網(wǎng)頁(yè)助手軟件。EditorTools2中文版不僅綠色小巧,而且完全免費。還支持免安裝、免激活、免注冊等繁瑣的安裝步驟,讓大家一鍵下載打開(kāi)即可在線(xiàn)使用。它具有優(yōu)采云采集器、免發(fā)布、易用、穩定、低功耗等亮點(diǎn)。更重要的是,運行時(shí)無(wú)需人工看守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,全天候不間斷為您提供內容更新。
EditorTools2免費版提供多種智能采集解決方案,全面保障您的網(wǎng)站優(yōu)質(zhì)及時(shí)的內容更新,滿(mǎn)足長(cháng)期運行需求,讓您免于繁重的負擔and boring 網(wǎng)站從更新工作中解脫出來(lái),如此簡(jiǎn)單、高效、實(shí)用。并且支持信息的自由組合,是一款通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新內容的實(shí)用電腦軟件。
EditorTools2免費版的特點(diǎn)
1.【自動(dòng)無(wú)人值守】
無(wú)需人工值守,24小時(shí)自動(dòng)實(shí)時(shí)監控目標,實(shí)時(shí)高效采集,全天候為您提供內容更新。滿(mǎn)足長(cháng)期作業(yè)需求,讓您從繁重的工作中解脫出來(lái)
2、【應用廣泛】
最全能的采集軟件,支持任何類(lèi)型的網(wǎng)站采集,應用率高達99.9%,支持發(fā)布到所有類(lèi)型的網(wǎng)站程序,甚至采集本地文件,無(wú)借口釋放
3、【信息隨心】
支持信息的自由組合,通過(guò)強大的數據整理功能對信息進(jìn)行深度加工,創(chuàng )造新的內容
4.【任意格式文件下載】
無(wú)論靜態(tài)還是動(dòng)態(tài),無(wú)論是圖片、音樂(lè )、電影、軟件,還是PDF、WORD文檔甚至種子文件,只要你想要
5.【偽原創(chuàng )】
高速同義詞替換,多詞隨機替換,段落隨機排序,助力內容SEO
6. [無(wú)限多級頁(yè)面采集]
從支持多級目錄開(kāi)始,無(wú)論是縱向多層信息頁(yè)面,還是平行方向的多個(gè)內容頁(yè)面,亦或是AJAX調用頁(yè)面,都讓你輕松采集
7.【自由擴展】
開(kāi)放接口方式,免費二次開(kāi)發(fā),自定義任意功能,實(shí)現所有需求
軟件功能
1、設定好計劃后,可24小時(shí)自動(dòng)工作,無(wú)需人工干預
2、與網(wǎng)站分離,通過(guò)獨立制作的接口可以支持任何網(wǎng)站或數據庫
3、靈活強大的采集規則不僅僅是采集文章,采集任何類(lèi)型的信息
4、體積小、功耗低、穩定性好非常適合運行在服務(wù)器上
5.所有規則均可導入導出,資源靈活
6.使用FTP上傳文件,穩定安全
7.下載上傳支持斷點(diǎn)續傳
8.高速 偽原創(chuàng )
9. 可以選擇倒序、順序、隨機采集文章
10.支持自動(dòng)列出網(wǎng)址
11、支持采集為網(wǎng)站,其數據分布在多層頁(yè)面
12.自由設置采集數據項,每個(gè)數據項可以單獨篩選排序
13.支持分頁(yè)內容采集
14.支持任意格式和類(lèi)型的文件(包括圖片、視頻)下載
15.可以破解防盜鏈文件
16.支持動(dòng)態(tài)文件URL解析
17. 支持采集 用于需要登錄訪(fǎng)問(wèn)的網(wǎng)頁(yè)
18.可以設置關(guān)鍵詞采集
19.可設置敏感詞防止采集
20.可以設置圖片水印
21、支持發(fā)布帶回復的文章,可廣泛應用于論壇、博客等項目
22、與采集數據分離的發(fā)布參數項可以自由對應采集數據或預設值,大大增強發(fā)布規則的復用性
23.支持隨機選擇發(fā)布賬號
24.支持任何已發(fā)布項目的語(yǔ)言翻譯
25.支持轉碼和UBB碼
26.可選擇文件上傳自動(dòng)創(chuàng )建年月日目錄
27.模擬發(fā)布支持網(wǎng)站無(wú)法安裝界面的發(fā)布操作
28.程序能正常運行
29.防止網(wǎng)絡(luò )運營(yíng)商劫持HTTP功能
30.單個(gè)采集釋放可以手動(dòng)執行
31、詳細的工作流程監控和信息反饋,讓您快速了解工作狀態(tài)
EditorTools2免費版教程
1. [使用登記](méi)
1.通過(guò)注冊獲得ET的使用授權;
打開(kāi)主菜單-授權注冊,填寫(xiě)您在ET官方網(wǎng)站(非論壇)注冊的有效賬號,注冊使用即可獲得ET授權

2.【系統設置】
打開(kāi)主菜單-系統-基本設置,進(jìn)行各項系統設置,如圖
1、設置工作參數;
根據需要設置工作參數,見(jiàn)圖
?、? 開(kāi)機自動(dòng)運行ET:?jiǎn)?dòng)電腦進(jìn)入系統后,ET程序會(huì )自動(dòng)運行;
?、? ET啟動(dòng)后自動(dòng)工作:ET啟動(dòng)運行后,將自動(dòng)執行上次使用ET時(shí)選擇的工作計劃。只有啟用此項,才會(huì )自動(dòng)保存當前選中的工作計劃;
?、? 啟動(dòng)后最小化:ET啟動(dòng)后,隱藏主窗口,只顯示托盤(pán)圖標;
?、? Ignore blanks at the beginning and end of the rule:?jiǎn)⒂么隧椇?,采集配置中的每條規則都會(huì )自動(dòng)去掉開(kāi)頭和結尾的空格、回車(chē)、換行等空白字符,從而避免用戶(hù)輸入較多空格或換行導致規則分析失??;如果用戶(hù)需要受益
?、? 使用空格或換行符確定規則的起止邊界,請取消勾選;
?、? 方案執行間隔時(shí)間:當執行自動(dòng)工作并選擇多個(gè)方案時(shí),當一個(gè)方案的當前列表采集完成后,間隔多長(cháng)時(shí)間將采集替換為下一個(gè)方案;
?、? 訪(fǎng)問(wèn)網(wǎng)絡(luò )超時(shí)時(shí)間:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )無(wú)響應時(shí)強制斷開(kāi)連接的時(shí)間;
?、? 網(wǎng)絡(luò )重試次數:設置訪(fǎng)問(wèn)網(wǎng)絡(luò )失敗自動(dòng)重試的次數,如采集網(wǎng)頁(yè)、下載文件、FTP上傳等,這是2.2版本新增的功能;
?、? 訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗后自動(dòng)重啟ET:設置訪(fǎng)問(wèn)網(wǎng)頁(yè)失敗一定次數后自動(dòng)重啟ET,解決一些可能導致網(wǎng)絡(luò )擁堵無(wú)法繼續正常工作的問(wèn)題;該功能僅在自動(dòng)工作時(shí)生效,停止自動(dòng)工作失敗計數將被清零,重試訪(fǎng)問(wèn)不計入;這是2.3.7版本的新特性;
2.設置代理
如果通過(guò)代理上網(wǎng),請設置訪(fǎng)問(wèn)網(wǎng)頁(yè)的代理參數,如圖
Only for 采集:勾選此項,代理設置只會(huì )對采集網(wǎng)頁(yè)生效,發(fā)布時(shí)不會(huì )使用代理。這是2.3.8版本的新功能
3.設置劫持特征碼
很多地區的電信寬帶用戶(hù)在上網(wǎng)時(shí)會(huì )強制將訪(fǎng)問(wèn)信息替換成訪(fǎng)問(wèn)信息中的一些代碼,這樣用戶(hù)只能通過(guò)代碼中的框框查看自己原本想訪(fǎng)問(wèn)的網(wǎng)頁(yè),這通常是用于顯示電信廣告或執行其他隱蔽操作,這種行為稱(chēng)為劫持瀏覽器;出現這種情況時(shí),ET的采集源代碼只能獲取這些劫持代碼,無(wú)法獲取采集網(wǎng)頁(yè)源代碼。通過(guò)設置這些劫持代碼的特征字符串,ET會(huì )嘗試突破劫持訪(fǎng)問(wèn)真實(shí)的網(wǎng)頁(yè)源代碼,并且最多可以重試訪(fǎng)問(wèn)URL 5次
4.設置用戶(hù)代理
網(wǎng)站通過(guò)userAgent判斷當前用戶(hù)使用的是什么瀏覽器,并根據瀏覽器可以支持的功能提供相應的功能。瀏覽器在訪(fǎng)問(wèn)網(wǎng)頁(yè)時(shí),通常會(huì )發(fā)送一個(gè)標識字符串來(lái)告訴網(wǎng)站這是什么瀏覽器軟件,而我們訪(fǎng)問(wèn)的部分網(wǎng)站會(huì )對UserAgent進(jìn)行限制,我們可以在基本設置中修改UserAgent ,也可以點(diǎn)擊'Get Local UserAgent'按鈕獲取本地IE默認UserAgent
5.設置支持的語(yǔ)言
采集一些網(wǎng)頁(yè),網(wǎng)站可能會(huì )勾選支持的語(yǔ)言,用戶(hù)可以在這里調整。
6.鎖定設置
打開(kāi)主菜單-系統-鎖設置,如圖:
該函數用于設置打開(kāi)每個(gè)配置窗口時(shí)的密碼。設置鎖定密碼后,使用菜單鎖定功能,防止用戶(hù)離開(kāi)計算機后,其他人無(wú)法訪(fǎng)問(wèn)和操作各項配置。
3.【前臺操作】
1.【選擇工作計劃】
工作計劃包括從源頭獲取原創(chuàng )信息、信息處理、最終發(fā)布到目標網(wǎng)站等一系列工作的所有設置說(shuō)明。它是 ET 自動(dòng) 采集 工作的指揮官。制定好后,我們在需要的方案(方案制定見(jiàn)用戶(hù)手冊-設置)后,就可以在主窗口選擇工作方案,開(kāi)始采集工作。
?、?了解節目區域;
主窗口左上角的樹(shù)狀目錄區為方案區,點(diǎn)擊鼠標右鍵彈出操作菜單
?、? 檢查選項;
點(diǎn)擊程序名前的選擇框,選擇要執行的程序,可以選擇多個(gè),
如果選擇的場(chǎng)景缺少關(guān)鍵配置,會(huì )提示并取消勾選
ET在工作時(shí),會(huì )先從當前的焦點(diǎn)方案開(kāi)始執行,即藍色高亮的方案,見(jiàn)圖4中的'網(wǎng)站-discuz 6.0 (with reply)'
多個(gè)選定的程序將循環(huán)執行。
在主窗口右上角的文章列表區,會(huì )顯示選中的焦點(diǎn)項目的待定文章。
右擊程序名稱(chēng),彈出菜單如圖
點(diǎn)擊Edit Scheme進(jìn)入方案編輯窗口
雙擊方案名稱(chēng),直接進(jìn)入方案編輯窗口。
2.自動(dòng)工作
選擇好要執行的工作計劃后,點(diǎn)擊主窗口左下方的“自動(dòng)”按鈕即可開(kāi)始全自動(dòng)工作。從此,用戶(hù)可以扔掉鼠標鍵盤(pán)和繁瑣的網(wǎng)站更新,和朋友出去玩,網(wǎng)站有自己的ET默默為你采集更新。要停止自動(dòng)工作,請單擊“停止”按鈕;
ET支持命令行啟動(dòng),參數/auto可以啟動(dòng)自動(dòng)工作,命令行使用示例:d:\editortools.exe /auto
3.手工作業(yè)
在調試解決方案時(shí),通常使用采集手動(dòng)操作。
?、?、采集目錄;

點(diǎn)擊主窗口左下方的'采集Category'按鈕,ET會(huì )對當前選中的焦點(diǎn)方案執行directory采集動(dòng)作,如果沒(méi)有焦點(diǎn)方案則依次執行
采集目錄信息顯示在主窗口右上角的文章列表區。
注意:修改計劃的采集規則時(shí),未發(fā)布的文章會(huì )自動(dòng)清除,包括發(fā)送失敗的文章,防止用戶(hù)繼續使用采集 的錯誤 文章 條目
?、?、處理文章;
當文章列表區有文章需要處理時(shí),點(diǎn)擊主窗口左下方的‘處理文章’按鈕,文章中的第一項文章 列表區域將按順序處理 Pending 文章execution采集action
文章 加工過(guò)程中,工作記錄會(huì )顯示在主窗口右下方的信息區,
加工完成后,文章列表區對應條目會(huì )顯示加工狀態(tài)
?、? 另一種手動(dòng) 文章 方法
在文章列表區,雙擊一個(gè)文章條目將對文章執行采集動(dòng)作,無(wú)論文章是否已被處理或不是。
4. 了解文章列表區
主窗口右上角的表格區是文章列表區,顯示已執行計劃的pending 文章,
?、? 文章列表區各列說(shuō)明;
文章采集Title:這是采集規則得到的文章標題-列表分析規則,如果采集規則沒(méi)有設置解析title數據項規則,那么ET會(huì )使用這里的文章采集標題作為發(fā)布標題,文章采集標題可以更改,點(diǎn)擊標題后面的省略號按鈕即可進(jìn)入編輯狀態(tài)
Status - Send: 當此項的值為YES時(shí),表示這篇文章文章已經(jīng)發(fā)布成功
Status-Sensitive:當此項的值為YES時(shí),表示文章文本收錄敏感關(guān)鍵詞
Status-Error: 0表示沒(méi)有錯誤,其他錯誤碼含義參考相關(guān)主題
Status - Processing:勾選文章項表示已經(jīng)執行,可以點(diǎn)擊取消勾選使其再次執行
?、?、轉換顯示碼
右擊文章列表區,彈出編碼菜單
?、? 雙擊執行文章采集;
上一節提到,可以雙擊文章列表區的一個(gè)文章條目,對其執行采集;
?、?、瀏覽按鈕
點(diǎn)擊文章條目的瀏覽按鈕可以訪(fǎng)問(wèn)文章的網(wǎng)址,用于確認網(wǎng)址是否正確、查看網(wǎng)頁(yè)源代碼等。
5.認識信息欄
信息欄用于跟蹤執行過(guò)程,反饋各種信息。是了解ET工作情況,解決采集遇到問(wèn)題的重要工具。
?、? 工作記錄:
該欄記錄了ET每一步的工作過(guò)程和狀態(tài),包括目錄采集和文章處理兩部分。我們可以通過(guò)工作記錄知道采集執行是否正確完成。問(wèn)題是什么?當出現問(wèn)題時(shí),用戶(hù)可以根據信息欄中的提示和其他反饋內容,快速準確地找到故障原因并解決。
?、?、采集源碼:
該欄顯示采集頁(yè)面在執行過(guò)程中的采集列表頁(yè)、文章頁(yè)面、文章頁(yè)面等的源代碼。通過(guò)使用本專(zhuān)欄源碼,您可以輕松進(jìn)行規則測試,提供規則定制依據。
注意有些網(wǎng)站會(huì )根據不同的訪(fǎng)問(wèn)瀏覽器顯示不同的源碼,所以自定義ET的采集規則時(shí),以本欄源碼為準,例如采集為'SMF 1.1 .5'在規則示例中,通過(guò)IE訪(fǎng)問(wèn)的源代碼網(wǎng)站和通過(guò)采集器獲取的優(yōu)采云是不同的。
?、? 分析數據:
該欄目展示了文章過(guò)程中各個(gè)數據項的信息,從解析的原創(chuàng )代碼,到排序后的代碼,再到URL修正后的代碼。通過(guò)查看該欄目,用戶(hù)可以了解設置的數據項分析規則是否準確,排序組規則是否完善,最終信息是否符合您的要求。
例如:當工作記錄欄提示錯誤‘文數大于或小于發(fā)布設置’時(shí),我們可以查看該欄‘文’數據項,判斷是大于還是小于發(fā)布設置,無(wú)論是正常原因還是由于整理組設置不當,調整每一個(gè)設置。
?、?、發(fā)送代碼
該欄顯示ET向發(fā)布網(wǎng)站發(fā)送的數據,包括文章校驗部分和文章發(fā)布部分;
通過(guò)該欄信息,用戶(hù)可以通過(guò)一系列的分析和排序操作了解提交給發(fā)布網(wǎng)站的數據,從而查看其采集規則數據項和發(fā)布參數設置規則是正確的,完整的。
?、? 退貨信息
該欄顯示了ET向發(fā)布網(wǎng)站發(fā)送數據后發(fā)布網(wǎng)站的反饋,包括文章檢查反饋和文章發(fā)布反饋;
通過(guò)查看本專(zhuān)欄,我們可以清楚地看到采集進(jìn)程出錯的大部分原因。
某些接口返回錯誤信息時(shí),信息可能是HTML代碼。不熟悉 HTML 代碼的用戶(hù)很難閱讀。點(diǎn)擊WEB瀏覽按鈕,可以在操作系統默認的瀏覽器中方便地查看。
運行要求
一、【操作系統要求】
EditorTools是一款win32軟件,可運行于微軟簡(jiǎn)體中文版Windows xp/2000/2003/2008/vista/win7等操作系統環(huán)境。我們對軟件中的上述操作系統進(jìn)行了大量的測試和實(shí)地考察,確保EditorTools能夠在上述系統上安全、穩定地運行。
如果您選擇在非簡(jiǎn)體中文的Windows操作系統下運行ET,您可能會(huì )遇到界面顯示亂碼等問(wèn)題。你需要自己測試一下。通常安裝標準的簡(jiǎn)體中文字體庫(GB2312)即可解決。
2.【配套環(huán)境要求】
EditorTools2要求電腦有如下軟件環(huán)境
mdac 2.8 或更高版本(ADO 數據庫驅動(dòng)程序)
注冊scrrun.dll(用于讀寫(xiě)腳本和文本文件)
注冊vbscript.dll(VBScript腳本相關(guān)支持文件)
免費的:navicat premium中文免費版功能
navicat premium 中文免費版是一款非常強大的數據管理工具,可以有很多功能鏈接到各種數據庫。它允許用戶(hù)存儲不同類(lèi)型的文件,如過(guò)程、事件、觸發(fā)器、視圖等,這將使用戶(hù)更容易使用它。
navicat premium中文免費版功能
1.無(wú)縫
數據可以無(wú)縫遷移,傳輸過(guò)程中可以同步,讓用戶(hù)享受無(wú)延遲的數據傳輸體驗。
2.查詢(xún)
它可以幫助用戶(hù)更好的查詢(xún)軟件中的信息,幫助用戶(hù)更好的編輯和創(chuàng )建,從而更快的生成代碼。

三、合作
讓用戶(hù)的連接設置、模型、查詢(xún)等東西同步到這個(gè)軟件的服務(wù)器上,方便用戶(hù)實(shí)時(shí)訪(fǎng)問(wèn)。
4.工具
提供了很多豐富的工具供用戶(hù)使用,讓用戶(hù)在查詢(xún)和使用數據的時(shí)候有一個(gè)更快的過(guò)程。
navicat premium中文免費版使用方法
1、打開(kāi)軟件后,選擇要連接的數據庫類(lèi)型,如圖。
2、然后設置連接名稱(chēng)等信息,輸入ip地址等信息。

3、完成后可以點(diǎn)擊鏈接測試按鈕測試是否正確。
4.雙擊左邊的鏈接,選擇一個(gè)數據庫,選擇一個(gè)表,可以看到所有的表信息。
5、可以在表信息中添加數據,修改數據等操作,然后記得保存。
解決方案:Android 實(shí)時(shí)視頻采集/編碼/傳輸/解碼/播放—方案調研
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 117 次瀏覽 ? 2022-12-15 11:35
這是一個(gè)用python實(shí)現的局域網(wǎng)視頻聊天和文件傳輸工具。收錄源碼和exe文件,可直接運行或交換源碼學(xué)習。系統名稱(chēng): 局域網(wǎng)視頻聊天和文件傳輸工具 1、運行環(huán)境為windows系統,多臺主機在同一局域網(wǎng)環(huán)境下。2、目錄下有4個(gè)exe文件和一個(gè)jpg。只要確保將它們放在同一目錄中即可。3、用戶(hù)只需點(diǎn)擊mchat.exe即可使用。4.系統首次運行時(shí)會(huì )自動(dòng)生成data文件夾,里面存放的內容是視頻聊天后錄制的視頻,當用戶(hù)需要發(fā)送文件時(shí),需要將對應的文件5、系統分為3個(gè)模塊(1)發(fā)送文件,單擊此按鈕時(shí),本機將成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。
內容分享:百度問(wèn)答采集軟件
問(wèn)答采集和聚合采集是我們文章的采集,根據不同的文章類(lèi)型,通過(guò)采集工具我們可以采集的問(wèn)答內容會(huì )重新組合聚合,多個(gè)文章生成一個(gè)問(wèn)答內容,自動(dòng)生成文章目錄完成問(wèn)答聚合。
在 網(wǎng)站 構建中,我們通常創(chuàng )建帶有部分的 文章 類(lèi)型,例如“寵物”部分,通過(guò)問(wèn)答 采集 和 文章 聚合 采集 ,我們可以快速填寫(xiě)該欄目?jì)热?,通過(guò)文章聚合,可以將多個(gè)與“寵物”相關(guān)的文章聚合成一個(gè)集合文章進(jìn)行發(fā)布。
問(wèn)答 采集 和聚合 采集 有什么好處(如圖)?
1. 關(guān)鍵詞采集問(wèn)答可以匯總來(lái)自多個(gè)平臺的不同答案。
2、聚合采集后的答案,并自動(dòng)生成目錄發(fā)布,集百所學(xué)校之力進(jìn)行問(wèn)答回復,提高內容質(zhì)量。
3、通過(guò)重組多個(gè)文章段落,自動(dòng)添加圖片水印,圖片鏈接本地化,提升文章原創(chuàng )度。
4. 標題可自由組合,可將原標題自動(dòng)生成雙標題、三標題。
最有價(jià)值的反向鏈接是永遠存在的反向鏈接。通過(guò)留下高權重的反向鏈接 網(wǎng)站 可以給我們帶來(lái)意想不到的收獲。它們通常放在帖子中的 文章 或 網(wǎng)站 上。對于此類(lèi)鏈接,請使用第三方 網(wǎng)站 錨點(diǎn)在文本中最自然出現的位置。
此類(lèi)鏈接放置在高質(zhì)量的 網(wǎng)站 站點(diǎn)上,這些站點(diǎn)沒(méi)有垃圾郵件,并且對搜索引擎的信任度很高。此類(lèi)鏈接的質(zhì)量比臨時(shí)鏈接高得多,但不會(huì )產(chǎn)生負面影響。
基于關(guān)系的反向鏈接也可以通過(guò)與其他平臺建立伙伴關(guān)系和易貨關(guān)系來(lái)免費獲得鏈接。例如,通過(guò): 交換出版物;作為專(zhuān)家發(fā)表評論 文章;兌換活動(dòng)公告、優(yōu)惠碼、用戶(hù)禮物等。
我們可以通過(guò)定位具有相似出席率的平臺和對可能有興趣合作的主題感興趣的受眾來(lái)創(chuàng )建這種基于關(guān)系的鏈接。創(chuàng )建潛在合作伙伴列表后,仔細篩選出有影響力的參與者和大量受眾,然后必須交換反向鏈接。
來(lái)賓博客鏈接,此選項是獲得指向我們 網(wǎng)站 的反向鏈接的最簡(jiǎn)單方法。它們允許我們通過(guò)發(fā)布訪(fǎng)問(wèn)者內容來(lái)增加我們頁(yè)面的訪(fǎng)問(wèn)量。例如,假設我們編寫(xiě)了一個(gè)有用的 文章,其中收錄對第三方資源提供者遇到的問(wèn)題的解決方案。
我們將我們的作者鏈接添加到它。在這種情況下,合作伙伴會(huì )收到好的內容并在其幫助下推動(dòng)流量,我們也會(huì )從中收到反向鏈接和轉化。 查看全部
解決方案:Android 實(shí)時(shí)視頻采集/編碼/傳輸/解碼/播放—方案調研

這是一個(gè)用python實(shí)現的局域網(wǎng)視頻聊天和文件傳輸工具。收錄源碼和exe文件,可直接運行或交換源碼學(xué)習。系統名稱(chēng): 局域網(wǎng)視頻聊天和文件傳輸工具 1、運行環(huán)境為windows系統,多臺主機在同一局域網(wǎng)環(huán)境下。2、目錄下有4個(gè)exe文件和一個(gè)jpg。只要確保將它們放在同一目錄中即可。3、用戶(hù)只需點(diǎn)擊mchat.exe即可使用。4.系統首次運行時(shí)會(huì )自動(dòng)生成data文件夾,里面存放的內容是視頻聊天后錄制的視頻,當用戶(hù)需要發(fā)送文件時(shí),需要將對應的文件5、系統分為3個(gè)模塊(1)發(fā)送文件,單擊此按鈕時(shí),本機將成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。該機器成為服務(wù)器以監視其他客戶(hù)端的連接。此時(shí)其他客戶(hù)端就可以訪(fǎng)問(wèn)數據目錄下的文件了。(2)接收文件,點(diǎn)擊該按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。點(diǎn)擊此按鈕時(shí),輸入要連接的主機的ip地址,連接成功后輸入要傳輸的文件名。使用該功能時(shí),對方需要運行服務(wù)器模塊。(3) 視頻聊天,點(diǎn)擊該按鈕時(shí),輸入需要聊天的主機IP地址,連接成功后即可開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。輸入需要聊天的主機IP地址,連接成功后開(kāi)始。并且聊天視頻會(huì )被錄制并保存在數據目錄中。要關(guān)閉當前聊天窗口,請按 esc 鍵。6、如要結束以上三個(gè)模塊,請直接關(guān)閉窗口。

內容分享:百度問(wèn)答采集軟件
問(wèn)答采集和聚合采集是我們文章的采集,根據不同的文章類(lèi)型,通過(guò)采集工具我們可以采集的問(wèn)答內容會(huì )重新組合聚合,多個(gè)文章生成一個(gè)問(wèn)答內容,自動(dòng)生成文章目錄完成問(wèn)答聚合。
在 網(wǎng)站 構建中,我們通常創(chuàng )建帶有部分的 文章 類(lèi)型,例如“寵物”部分,通過(guò)問(wèn)答 采集 和 文章 聚合 采集 ,我們可以快速填寫(xiě)該欄目?jì)热?,通過(guò)文章聚合,可以將多個(gè)與“寵物”相關(guān)的文章聚合成一個(gè)集合文章進(jìn)行發(fā)布。
問(wèn)答 采集 和聚合 采集 有什么好處(如圖)?
1. 關(guān)鍵詞采集問(wèn)答可以匯總來(lái)自多個(gè)平臺的不同答案。
2、聚合采集后的答案,并自動(dòng)生成目錄發(fā)布,集百所學(xué)校之力進(jìn)行問(wèn)答回復,提高內容質(zhì)量。

3、通過(guò)重組多個(gè)文章段落,自動(dòng)添加圖片水印,圖片鏈接本地化,提升文章原創(chuàng )度。
4. 標題可自由組合,可將原標題自動(dòng)生成雙標題、三標題。
最有價(jià)值的反向鏈接是永遠存在的反向鏈接。通過(guò)留下高權重的反向鏈接 網(wǎng)站 可以給我們帶來(lái)意想不到的收獲。它們通常放在帖子中的 文章 或 網(wǎng)站 上。對于此類(lèi)鏈接,請使用第三方 網(wǎng)站 錨點(diǎn)在文本中最自然出現的位置。
此類(lèi)鏈接放置在高質(zhì)量的 網(wǎng)站 站點(diǎn)上,這些站點(diǎn)沒(méi)有垃圾郵件,并且對搜索引擎的信任度很高。此類(lèi)鏈接的質(zhì)量比臨時(shí)鏈接高得多,但不會(huì )產(chǎn)生負面影響。
基于關(guān)系的反向鏈接也可以通過(guò)與其他平臺建立伙伴關(guān)系和易貨關(guān)系來(lái)免費獲得鏈接。例如,通過(guò): 交換出版物;作為專(zhuān)家發(fā)表評論 文章;兌換活動(dòng)公告、優(yōu)惠碼、用戶(hù)禮物等。

我們可以通過(guò)定位具有相似出席率的平臺和對可能有興趣合作的主題感興趣的受眾來(lái)創(chuàng )建這種基于關(guān)系的鏈接。創(chuàng )建潛在合作伙伴列表后,仔細篩選出有影響力的參與者和大量受眾,然后必須交換反向鏈接。
來(lái)賓博客鏈接,此選項是獲得指向我們 網(wǎng)站 的反向鏈接的最簡(jiǎn)單方法。它們允許我們通過(guò)發(fā)布訪(fǎng)問(wèn)者內容來(lái)增加我們頁(yè)面的訪(fǎng)問(wèn)量。例如,假設我們編寫(xiě)了一個(gè)有用的 文章,其中收錄對第三方資源提供者遇到的問(wèn)題的解決方案。
我們將我們的作者鏈接添加到它。在這種情況下,合作伙伴會(huì )收到好的內容并在其幫助下推動(dòng)流量,我們也會(huì )從中收到反向鏈接和轉化。
推薦文章:wordpress文章采集,自媒體有哪些免費的文章采集網(wǎng)站
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 167 次瀏覽 ? 2022-12-11 18:12
wordpress 文章采集, 自媒體 有哪些免費的文章采集網(wǎng)站?
其他微信公眾號文章的排版很漂亮,只能眼巴巴看著(zhù),想用卻不知如何下手?
我要轉一篇文章,好不容易復制過(guò)來(lái),粘貼的時(shí)候發(fā)現格式全亂了?
今天教大家一個(gè)小技巧——文章采集,無(wú)論是排版還是文章內容,都可以一鍵導入到編輯器中,快來(lái)學(xué)習吧。
01采集演示
整個(gè)操作過(guò)程不到5秒,是不是超級簡(jiǎn)單?超級快速且易于使用?
02教程
接下來(lái),我們來(lái)看看采集函數的使用方法。
?、?選擇目標文章,復制文章鏈接。
電腦用戶(hù)可以直接全選并復制瀏覽器地址欄中的文章鏈接。
▲ PC端保存文章鏈接
手機用戶(hù)可以點(diǎn)擊右上角的菜單按鈕,選擇復制鏈接,將鏈接發(fā)送到電腦端。
▲ 在移動(dòng)端保存文章鏈接
?、?點(diǎn)擊采集按鈕。
Ant Editor()中有兩個(gè)文章采集函數入口:
?、?編輯菜單右上角的[采集文章]按鈕;
▲ 采集 按鈕
?、?右功能按鈕下方的[采集文章]按鈕。
▲ 采集 按鈕
?、?粘貼文章鏈接和采集。
▲ 粘貼鏈接 采集
小編支持采集微信公眾號、QQ公眾號、今日頭條號、百度百家號、一點(diǎn)號、網(wǎng)易號、搜狐公眾號、新浪博客、騰訊新聞、新浪新聞、天天快報、網(wǎng)易新聞、知乎 專(zhuān)欄以及 [許多 自媒體 平臺]文章 上的更多內容。
03文章申請
將文章采集放入編輯區后,我們就可以進(jìn)行后續的修改和排版了。
?、挪捎迷呐虐?。
如果只使用原文排版,導入文章采集后,只需要【替換文字和圖片】即可。
文本替換:將要使用的文本寫(xiě)入編輯區,或使用無(wú)格式粘貼(Ctrl+Shift+V)將文本粘貼到編輯區,然后使用【格式刷】工具套用原來(lái)的格式文本到新輸入的文本中。
▲格式刷
圖片替換:在編輯區點(diǎn)擊需要替換的圖片,再點(diǎn)擊右側圖片區的圖片即可完成替換。
?、?借鑒原文內容。
如果不需要對原文進(jìn)行排版,只需要使用文章的內容,在編輯區添加文章采集后,可以使用快捷鍵(Ctrl+A)全選,然后用【清除格式】按鈕清除原文格式,然后排版文章的內容。
▲ 格式清晰
?、?可以在編輯器中使用【秒刷】功能直接套用素材樣式:選中要秒刷的內容,點(diǎn)擊喜歡的樣式,樣式即可成功使用。?
▲二刷
?、?可使用【智能排列】在編輯器中一鍵套用全文模板:選擇全文模板,設置基本參數,點(diǎn)擊鼠標,全文模板將自動(dòng)套用。操作簡(jiǎn)單易學(xué),使用方便。
▲ 智能排版
采集你學(xué)會(huì )如何使用這個(gè)功能了嗎?如果你平時(shí)看到版面精美、內容豐富的文章,不妨先采集起來(lái),以備日后之用。
優(yōu)采云通用文章采集器沒(méi)有頁(yè)碼的動(dòng)態(tài)加載列表頁(yè)怎么辦采集?
采集 內容不包括分頁(yè)部分,只有文章 內容是必需的。
只需在測試頁(yè)下的分頁(yè)規則中填寫(xiě)分頁(yè),系統就會(huì )自動(dòng)采集分頁(yè)。
因為每個(gè)頁(yè)面的內容代碼都是一樣的,系統會(huì )自動(dòng)判斷。
wordpress如何將文章批量導入數據庫?
進(jìn)入WordPress后臺:工具->導入,點(diǎn)擊列表中的WordPress;如果你的WordPress網(wǎng)站沒(méi)有安裝WordPress Importer,會(huì )彈出安裝頁(yè)面,點(diǎn)擊立即安裝;安裝完成后,點(diǎn)擊“啟用插件并運行導入工具”
;點(diǎn)擊選擇文件,選擇xml文件,然后點(diǎn)擊“上傳并導入”
;在接下來(lái)的頁(yè)面中,選擇“下載并導入文件附件” ;由于要從遠程服務(wù)器下載演示內容所需的圖片,可能需要較長(cháng)時(shí)間。
如何使用 WordPress 制作您自己的 網(wǎng)站?
這個(gè)問(wèn)題的范圍比較廣??梢岳斫鉃槭褂肳ordPress搭建網(wǎng)站。首先你要有自己的域名和主機,然后把域名解析成主機IP,然后下載WordPress安裝包上傳到主機根目錄下。然后通過(guò)瀏覽器訪(fǎng)問(wèn)域名,按照要求一步步填寫(xiě)相關(guān)信息進(jìn)行安裝。
安裝WordPress后,默認使用官方主機。建議換成國內優(yōu)秀的WordPress主題,然后就可以登錄后臺發(fā)布文章了。
采集 的文章 內容如何快速收錄?
文章成為收錄基本上取決于兩個(gè)因素。
一是文章的原創(chuàng )度,搜索引擎喜歡原創(chuàng )的內容,而且原創(chuàng )質(zhì)量高原創(chuàng ),不是沒(méi)有邏輯的文章原創(chuàng ),一般人做不到原創(chuàng ),你可以偽原創(chuàng ),采集文章別專(zhuān)心做采集一件,你可以采集整理和修改多篇文章,不要采集文章的第一段和最后一段,或者用自己的話(huà)翻譯采集的內容。最好在段落的開(kāi)頭和結尾嵌入關(guān)鍵詞,呼應標題。
另一個(gè)因素是發(fā)布平臺的重量。同一個(gè)文章,發(fā)布在不同權重的平臺上,權重高的可能很快收錄,權重低的可能慢收錄甚至收錄。所以選擇一個(gè)高權重的平臺也是關(guān)鍵。
匯總:六點(diǎn)告訴你如何提高站點(diǎn)的收錄
點(diǎn)擊上方藍字關(guān)注我,閱讀美文
網(wǎng)站優(yōu)化后,如果想讓網(wǎng)站的關(guān)鍵詞排名更高,首先要做的就是添加更多的網(wǎng)站內容,這樣當網(wǎng)站當包括在內時(shí),排名會(huì )相應增長(cháng)。對于收錄來(lái)說(shuō),只要網(wǎng)站優(yōu)化到位,就沒(méi)有大問(wèn)題。下面我們將本站細分為包括這部分在內的改進(jìn)方法,幫助大家網(wǎng)站改進(jìn)更多收錄。
1. 提高網(wǎng)站文章質(zhì)量
網(wǎng)站上線(xiàn)后,最好保持三個(gè)月的高質(zhì)量文章更新,這樣搜索引擎才有機會(huì )開(kāi)放logo權限。如果開(kāi)啟logo權限,就相當于搜索引擎對你的網(wǎng)站得到肯定,有潛力有優(yōu)質(zhì)的內容更新,是否可以依靠搜索引擎的信任度不斷增加文章的更新或排名靠你的堅持,文章收錄之后,盡量不要隨意修改,否則會(huì )導致蜘蛛反復爬行,影響其他文章的收錄。
2、新址保護期
所謂新站保護,是指該域名在備案上線(xiàn)時(shí)間后六個(gè)月內沒(méi)有做過(guò)任何相關(guān)的網(wǎng)站上線(xiàn)操作,可以直接參與公司的備案提交,然后開(kāi)始出現對于百度新站鏈接提交的保護期,這個(gè)網(wǎng)絡(luò )鏈接提交入口可以和搜索引擎的手動(dòng)提交入口一起提交,他們一般都是在新站保護期內提交鏈接,除非你后來(lái)發(fā)現你的文章內容是低質(zhì)量的,不然已經(jīng)收錄的文章不容易丟失。
3、人工提交,搜索引擎主動(dòng)推送
百度搜索引擎驗證企業(yè)網(wǎng)站系統后,會(huì )通過(guò)以下三個(gè)方面文章向我們提交詞條,一是人工推送,即一個(gè)一個(gè)復制鏈接并提交或者分批提交 OK,同學(xué)們也可以不用收錄通過(guò)學(xué)習其他個(gè)人賬號分析搜索鏈接問(wèn)題,然后提交。公司賬號一天只能提交20條(不確定,忘了,可以去Verify)。
4.外鏈建設
當網(wǎng)站發(fā)布文章時(shí),如果依賴(lài)域名的蜘蛛只是爬行,依靠高權重平臺的幫助將自己通過(guò)博客和文章收錄是不現實(shí)的。中的論壇 文章 可以在鏈接中發(fā)布。
5.內鏈建設
文章收錄前期可以做內部鏈接,但是需要自己開(kāi)發(fā)站點(diǎn)專(zhuān)用的關(guān)鍵詞+鏈接功能,比如發(fā)表一篇文章文章想要文章 鏈接到 關(guān)鍵詞 將自動(dòng)鏈接到 關(guān)鍵詞。這樣,您可以節省 網(wǎng)站 網(wǎng)站管理員手動(dòng)添加他們自己的 關(guān)鍵詞 鏈接的時(shí)間。(有些公司網(wǎng)站的bug比較多,比如完成這個(gè)功能后,會(huì )出現一些自己鏈接自己的現象文章,有沒(méi)有這種開(kāi)發(fā)需要自行查看)。
6、聚合頁(yè)面的制作
有的網(wǎng)站大量發(fā)布了文章,有的文章反復發(fā)布。這個(gè)問(wèn)題可能會(huì )影響公司 網(wǎng)站收錄 在發(fā)展的瓶頸期,我們可以做聚合頁(yè)面,也就是TAG頁(yè)面,生成新的特殊頁(yè)面供蜘蛛爬取,這樣它們就有更多的人不主動(dòng)參與排名ranking的文章結構分析。
如果想快速被百度收錄,可以先適當提交文章質(zhì)量,然后再做seo優(yōu)化的基本操作,基本上沒(méi)什么大問(wèn)題,除非有問(wèn)題域名或服務(wù)器速度太慢等原因,發(fā)現這些問(wèn)題的朋友請盡快改正。 查看全部
推薦文章:wordpress文章采集,自媒體有哪些免費的文章采集網(wǎng)站
wordpress 文章采集, 自媒體 有哪些免費的文章采集網(wǎng)站?
其他微信公眾號文章的排版很漂亮,只能眼巴巴看著(zhù),想用卻不知如何下手?
我要轉一篇文章,好不容易復制過(guò)來(lái),粘貼的時(shí)候發(fā)現格式全亂了?
今天教大家一個(gè)小技巧——文章采集,無(wú)論是排版還是文章內容,都可以一鍵導入到編輯器中,快來(lái)學(xué)習吧。
01采集演示
整個(gè)操作過(guò)程不到5秒,是不是超級簡(jiǎn)單?超級快速且易于使用?
02教程
接下來(lái),我們來(lái)看看采集函數的使用方法。
?、?選擇目標文章,復制文章鏈接。
電腦用戶(hù)可以直接全選并復制瀏覽器地址欄中的文章鏈接。
▲ PC端保存文章鏈接
手機用戶(hù)可以點(diǎn)擊右上角的菜單按鈕,選擇復制鏈接,將鏈接發(fā)送到電腦端。
▲ 在移動(dòng)端保存文章鏈接
?、?點(diǎn)擊采集按鈕。
Ant Editor()中有兩個(gè)文章采集函數入口:
?、?編輯菜單右上角的[采集文章]按鈕;
▲ 采集 按鈕

?、?右功能按鈕下方的[采集文章]按鈕。
▲ 采集 按鈕
?、?粘貼文章鏈接和采集。
▲ 粘貼鏈接 采集
小編支持采集微信公眾號、QQ公眾號、今日頭條號、百度百家號、一點(diǎn)號、網(wǎng)易號、搜狐公眾號、新浪博客、騰訊新聞、新浪新聞、天天快報、網(wǎng)易新聞、知乎 專(zhuān)欄以及 [許多 自媒體 平臺]文章 上的更多內容。
03文章申請
將文章采集放入編輯區后,我們就可以進(jìn)行后續的修改和排版了。
?、挪捎迷呐虐?。
如果只使用原文排版,導入文章采集后,只需要【替換文字和圖片】即可。
文本替換:將要使用的文本寫(xiě)入編輯區,或使用無(wú)格式粘貼(Ctrl+Shift+V)將文本粘貼到編輯區,然后使用【格式刷】工具套用原來(lái)的格式文本到新輸入的文本中。
▲格式刷
圖片替換:在編輯區點(diǎn)擊需要替換的圖片,再點(diǎn)擊右側圖片區的圖片即可完成替換。
?、?借鑒原文內容。
如果不需要對原文進(jìn)行排版,只需要使用文章的內容,在編輯區添加文章采集后,可以使用快捷鍵(Ctrl+A)全選,然后用【清除格式】按鈕清除原文格式,然后排版文章的內容。
▲ 格式清晰
?、?可以在編輯器中使用【秒刷】功能直接套用素材樣式:選中要秒刷的內容,點(diǎn)擊喜歡的樣式,樣式即可成功使用。?
▲二刷
?、?可使用【智能排列】在編輯器中一鍵套用全文模板:選擇全文模板,設置基本參數,點(diǎn)擊鼠標,全文模板將自動(dòng)套用。操作簡(jiǎn)單易學(xué),使用方便。

▲ 智能排版
采集你學(xué)會(huì )如何使用這個(gè)功能了嗎?如果你平時(shí)看到版面精美、內容豐富的文章,不妨先采集起來(lái),以備日后之用。
優(yōu)采云通用文章采集器沒(méi)有頁(yè)碼的動(dòng)態(tài)加載列表頁(yè)怎么辦采集?
采集 內容不包括分頁(yè)部分,只有文章 內容是必需的。
只需在測試頁(yè)下的分頁(yè)規則中填寫(xiě)分頁(yè),系統就會(huì )自動(dòng)采集分頁(yè)。
因為每個(gè)頁(yè)面的內容代碼都是一樣的,系統會(huì )自動(dòng)判斷。
wordpress如何將文章批量導入數據庫?
進(jìn)入WordPress后臺:工具->導入,點(diǎn)擊列表中的WordPress;如果你的WordPress網(wǎng)站沒(méi)有安裝WordPress Importer,會(huì )彈出安裝頁(yè)面,點(diǎn)擊立即安裝;安裝完成后,點(diǎn)擊“啟用插件并運行導入工具”
;點(diǎn)擊選擇文件,選擇xml文件,然后點(diǎn)擊“上傳并導入”
;在接下來(lái)的頁(yè)面中,選擇“下載并導入文件附件” ;由于要從遠程服務(wù)器下載演示內容所需的圖片,可能需要較長(cháng)時(shí)間。
如何使用 WordPress 制作您自己的 網(wǎng)站?
這個(gè)問(wèn)題的范圍比較廣??梢岳斫鉃槭褂肳ordPress搭建網(wǎng)站。首先你要有自己的域名和主機,然后把域名解析成主機IP,然后下載WordPress安裝包上傳到主機根目錄下。然后通過(guò)瀏覽器訪(fǎng)問(wèn)域名,按照要求一步步填寫(xiě)相關(guān)信息進(jìn)行安裝。
安裝WordPress后,默認使用官方主機。建議換成國內優(yōu)秀的WordPress主題,然后就可以登錄后臺發(fā)布文章了。
采集 的文章 內容如何快速收錄?
文章成為收錄基本上取決于兩個(gè)因素。
一是文章的原創(chuàng )度,搜索引擎喜歡原創(chuàng )的內容,而且原創(chuàng )質(zhì)量高原創(chuàng ),不是沒(méi)有邏輯的文章原創(chuàng ),一般人做不到原創(chuàng ),你可以偽原創(chuàng ),采集文章別專(zhuān)心做采集一件,你可以采集整理和修改多篇文章,不要采集文章的第一段和最后一段,或者用自己的話(huà)翻譯采集的內容。最好在段落的開(kāi)頭和結尾嵌入關(guān)鍵詞,呼應標題。
另一個(gè)因素是發(fā)布平臺的重量。同一個(gè)文章,發(fā)布在不同權重的平臺上,權重高的可能很快收錄,權重低的可能慢收錄甚至收錄。所以選擇一個(gè)高權重的平臺也是關(guān)鍵。
匯總:六點(diǎn)告訴你如何提高站點(diǎn)的收錄
點(diǎn)擊上方藍字關(guān)注我,閱讀美文
網(wǎng)站優(yōu)化后,如果想讓網(wǎng)站的關(guān)鍵詞排名更高,首先要做的就是添加更多的網(wǎng)站內容,這樣當網(wǎng)站當包括在內時(shí),排名會(huì )相應增長(cháng)。對于收錄來(lái)說(shuō),只要網(wǎng)站優(yōu)化到位,就沒(méi)有大問(wèn)題。下面我們將本站細分為包括這部分在內的改進(jìn)方法,幫助大家網(wǎng)站改進(jìn)更多收錄。
1. 提高網(wǎng)站文章質(zhì)量
網(wǎng)站上線(xiàn)后,最好保持三個(gè)月的高質(zhì)量文章更新,這樣搜索引擎才有機會(huì )開(kāi)放logo權限。如果開(kāi)啟logo權限,就相當于搜索引擎對你的網(wǎng)站得到肯定,有潛力有優(yōu)質(zhì)的內容更新,是否可以依靠搜索引擎的信任度不斷增加文章的更新或排名靠你的堅持,文章收錄之后,盡量不要隨意修改,否則會(huì )導致蜘蛛反復爬行,影響其他文章的收錄。

2、新址保護期
所謂新站保護,是指該域名在備案上線(xiàn)時(shí)間后六個(gè)月內沒(méi)有做過(guò)任何相關(guān)的網(wǎng)站上線(xiàn)操作,可以直接參與公司的備案提交,然后開(kāi)始出現對于百度新站鏈接提交的保護期,這個(gè)網(wǎng)絡(luò )鏈接提交入口可以和搜索引擎的手動(dòng)提交入口一起提交,他們一般都是在新站保護期內提交鏈接,除非你后來(lái)發(fā)現你的文章內容是低質(zhì)量的,不然已經(jīng)收錄的文章不容易丟失。
3、人工提交,搜索引擎主動(dòng)推送
百度搜索引擎驗證企業(yè)網(wǎng)站系統后,會(huì )通過(guò)以下三個(gè)方面文章向我們提交詞條,一是人工推送,即一個(gè)一個(gè)復制鏈接并提交或者分批提交 OK,同學(xué)們也可以不用收錄通過(guò)學(xué)習其他個(gè)人賬號分析搜索鏈接問(wèn)題,然后提交。公司賬號一天只能提交20條(不確定,忘了,可以去Verify)。
4.外鏈建設

當網(wǎng)站發(fā)布文章時(shí),如果依賴(lài)域名的蜘蛛只是爬行,依靠高權重平臺的幫助將自己通過(guò)博客和文章收錄是不現實(shí)的。中的論壇 文章 可以在鏈接中發(fā)布。
5.內鏈建設
文章收錄前期可以做內部鏈接,但是需要自己開(kāi)發(fā)站點(diǎn)專(zhuān)用的關(guān)鍵詞+鏈接功能,比如發(fā)表一篇文章文章想要文章 鏈接到 關(guān)鍵詞 將自動(dòng)鏈接到 關(guān)鍵詞。這樣,您可以節省 網(wǎng)站 網(wǎng)站管理員手動(dòng)添加他們自己的 關(guān)鍵詞 鏈接的時(shí)間。(有些公司網(wǎng)站的bug比較多,比如完成這個(gè)功能后,會(huì )出現一些自己鏈接自己的現象文章,有沒(méi)有這種開(kāi)發(fā)需要自行查看)。
6、聚合頁(yè)面的制作
有的網(wǎng)站大量發(fā)布了文章,有的文章反復發(fā)布。這個(gè)問(wèn)題可能會(huì )影響公司 網(wǎng)站收錄 在發(fā)展的瓶頸期,我們可以做聚合頁(yè)面,也就是TAG頁(yè)面,生成新的特殊頁(yè)面供蜘蛛爬取,這樣它們就有更多的人不主動(dòng)參與排名ranking的文章結構分析。
如果想快速被百度收錄,可以先適當提交文章質(zhì)量,然后再做seo優(yōu)化的基本操作,基本上沒(méi)什么大問(wèn)題,除非有問(wèn)題域名或服務(wù)器速度太慢等原因,發(fā)現這些問(wèn)題的朋友請盡快改正。
實(shí)時(shí)文章采集 完美:建筑學(xué)工科生如何在建筑行業(yè)中脫穎而出
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 146 次瀏覽 ? 2022-12-10 16:27
實(shí)時(shí)文章采集,并且每篇文章均可投稿。地址:facebook或者buzzfeed及其他主流媒體投稿的地址:投稿:大家可以站內私信我,也可以發(fā)郵件到coursedesign@fanhua.fy,sketchup3d方面的筆試問(wèn)題,以及相關(guān)論文方面的問(wèn)題,職位信息,公司環(huán)境以及推薦,設計建議以及其他問(wèn)題,我都會(huì )一一回復。
謝邀,怎么說(shuō)呢,很喜歡游戲行業(yè),也想畢業(yè)就去,但還沒(méi)來(lái)得及,以后如果來(lái)得及的話(huà)也會(huì )去嘗試游戲建模,看著(zhù)現在這么多優(yōu)秀的人,還是有動(dòng)力的。
當然來(lái)得及!來(lái)得及!我建筑的同學(xué)一個(gè)個(gè)考注冊,考中級,考高級(嗯,每年只要到中級考試就會(huì )被拖延),高級考試都排在八月,美術(shù)指導們已經(jīng)開(kāi)始加班了!基本你學(xué)習,能考上市建筑高級的,那么你這四年本專(zhuān)業(yè)就應該在建筑行業(yè)了。我這三年,覺(jué)得自己當時(shí)混四年建筑,真的是圖樣圖森破!直到現在我都在努力考有計算機二級的考試,方便找工作(狗頭)?。?!如果你像我一樣在學(xué)校學(xué)習渲染,ps等學(xué)位課的話(huà),一個(gè)建筑學(xué)工科生如果喜歡,去讀個(gè)bim!那將是很棒的??!如果想去游戲公司工作,趕緊的學(xué)u3d和opengl!否則人家一提opengl你就要跪了?。?!你要是說(shuō)你學(xué)adobe全家桶,會(huì )用coreldraw?那么ps一定要學(xué)?。?!把頂點(diǎn)縮放模糊模糊上色寫(xiě)的漂亮點(diǎn),那這個(gè)學(xué)位上你將是個(gè)很棒的業(yè)余愛(ài)好者了!你還要學(xué)模型渲染,特效渲染,音效渲染,爆炸渲染!還要學(xué)各種渲染器!搞渲染器一定會(huì )耗時(shí)費錢(qián)你還要對專(zhuān)業(yè)課學(xué)的很熟練!那你的專(zhuān)業(yè)是學(xué)校的不是自己編程做游戲的?。?!建筑學(xué)大一每周兩次課,大二之后每天一堂課這樣子(我知道這話(huà)比較糙)還要實(shí)驗一下這個(gè)專(zhuān)業(yè)!給排水設計能扛得住的才有可能當你天天疲憊學(xué)建筑的老師,專(zhuān)業(yè)要是不精通,工資一定不會(huì )高的?。?!而且各種渲染器分區域渲染就是這樣的,每次畫(huà)效果圖,你會(huì )吐??!渲染器這四年吃點(diǎn)東西!保證你不會(huì )找不到女朋友,起碼在你面前是長(cháng)相不錯的??!而且這四年你還能培養點(diǎn)其他愛(ài)好,比如說(shuō)(找到對象的話(huà))!把四年的學(xué)業(yè)搞好,爭取接觸多一點(diǎn)其他方面的東西,以后設計的路更寬!千萬(wàn)不要拿畢業(yè)設計當做吃飯的手藝,不能養家糊口的??!能吃飽,這才是正事!當你最后要畢業(yè)設計的時(shí)候,你才會(huì )懷念四年虛度光陰的日子,后悔當初沒(méi)有認真學(xué)習這些學(xué)位課知識?。ㄟ@句話(huà)在我寒假臨近畢業(yè)時(shí))以上!。 查看全部
實(shí)時(shí)文章采集 完美:建筑學(xué)工科生如何在建筑行業(yè)中脫穎而出

實(shí)時(shí)文章采集,并且每篇文章均可投稿。地址:facebook或者buzzfeed及其他主流媒體投稿的地址:投稿:大家可以站內私信我,也可以發(fā)郵件到coursedesign@fanhua.fy,sketchup3d方面的筆試問(wèn)題,以及相關(guān)論文方面的問(wèn)題,職位信息,公司環(huán)境以及推薦,設計建議以及其他問(wèn)題,我都會(huì )一一回復。

謝邀,怎么說(shuō)呢,很喜歡游戲行業(yè),也想畢業(yè)就去,但還沒(méi)來(lái)得及,以后如果來(lái)得及的話(huà)也會(huì )去嘗試游戲建模,看著(zhù)現在這么多優(yōu)秀的人,還是有動(dòng)力的。
當然來(lái)得及!來(lái)得及!我建筑的同學(xué)一個(gè)個(gè)考注冊,考中級,考高級(嗯,每年只要到中級考試就會(huì )被拖延),高級考試都排在八月,美術(shù)指導們已經(jīng)開(kāi)始加班了!基本你學(xué)習,能考上市建筑高級的,那么你這四年本專(zhuān)業(yè)就應該在建筑行業(yè)了。我這三年,覺(jué)得自己當時(shí)混四年建筑,真的是圖樣圖森破!直到現在我都在努力考有計算機二級的考試,方便找工作(狗頭)?。?!如果你像我一樣在學(xué)校學(xué)習渲染,ps等學(xué)位課的話(huà),一個(gè)建筑學(xué)工科生如果喜歡,去讀個(gè)bim!那將是很棒的??!如果想去游戲公司工作,趕緊的學(xué)u3d和opengl!否則人家一提opengl你就要跪了?。?!你要是說(shuō)你學(xué)adobe全家桶,會(huì )用coreldraw?那么ps一定要學(xué)?。?!把頂點(diǎn)縮放模糊模糊上色寫(xiě)的漂亮點(diǎn),那這個(gè)學(xué)位上你將是個(gè)很棒的業(yè)余愛(ài)好者了!你還要學(xué)模型渲染,特效渲染,音效渲染,爆炸渲染!還要學(xué)各種渲染器!搞渲染器一定會(huì )耗時(shí)費錢(qián)你還要對專(zhuān)業(yè)課學(xué)的很熟練!那你的專(zhuān)業(yè)是學(xué)校的不是自己編程做游戲的?。?!建筑學(xué)大一每周兩次課,大二之后每天一堂課這樣子(我知道這話(huà)比較糙)還要實(shí)驗一下這個(gè)專(zhuān)業(yè)!給排水設計能扛得住的才有可能當你天天疲憊學(xué)建筑的老師,專(zhuān)業(yè)要是不精通,工資一定不會(huì )高的?。?!而且各種渲染器分區域渲染就是這樣的,每次畫(huà)效果圖,你會(huì )吐??!渲染器這四年吃點(diǎn)東西!保證你不會(huì )找不到女朋友,起碼在你面前是長(cháng)相不錯的??!而且這四年你還能培養點(diǎn)其他愛(ài)好,比如說(shuō)(找到對象的話(huà))!把四年的學(xué)業(yè)搞好,爭取接觸多一點(diǎn)其他方面的東西,以后設計的路更寬!千萬(wàn)不要拿畢業(yè)設計當做吃飯的手藝,不能養家糊口的??!能吃飽,這才是正事!當你最后要畢業(yè)設計的時(shí)候,你才會(huì )懷念四年虛度光陰的日子,后悔當初沒(méi)有認真學(xué)習這些學(xué)位課知識?。ㄟ@句話(huà)在我寒假臨近畢業(yè)時(shí))以上!。
解決方案:漫畫(huà)趣解Flink實(shí)時(shí)數倉:搬橡果
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 76 次瀏覽 ? 2022-12-10 14:52
1 底漆(移動(dòng)橡子)
入冬了,我和小伙伴們開(kāi)始囤年貨了。
今年干了半年多,我們收獲了一整車(chē)的橡子。我們小松鼠喜歡把這些心愛(ài)的橡子放在儲藏室里。
于是我今天早早起床,開(kāi)始搬這些橡子。
過(guò)了一會(huì )兒,慧慧突然告訴我,她想吃昨天摘的一個(gè)灰色的小橡子。
我看著(zhù)眼前堆積如山的年貨,苦惱地摸了摸自己的腦袋:等我搬到那個(gè)給你。
慧慧很不高興,嘀咕道:為什么我們昨天一脫下來(lái)就不能動(dòng)呢?
我解釋說(shuō):我們每年存的錢(qián)只夠買(mǎi)一輛車(chē)一起搬家嗎?
看著(zhù)一旁生氣的灰灰,我放慢了背的速度~
抬頭看著(zhù)高高的橡子堆,他嘆了口氣。他一邊拿著(zhù),一邊尋找自己想要的小橡子。. .
今天怕是走不動(dòng)了~
2 慢還是快?
總而言之,我們在故事中遇到了一些小煩惱:
關(guān)鍵詞:速度慢、體量大、時(shí)效性差、搜索快、溯源性差。.
帶著(zhù)這個(gè)小故事,我回到了本文的主題。
這些關(guān)鍵詞也是企業(yè)實(shí)時(shí)數倉建設中經(jīng)常遇到的一些困難和訴求。
2.1 企業(yè)實(shí)時(shí)數倉建設需求
大多數企業(yè)都面臨著(zhù)數據來(lái)源多、結構復雜的問(wèn)題。為了更好地管理數據和賦能價(jià)值,他們往往在集團和部門(mén)內部建立數據倉庫。
一般初期的數據倉庫開(kāi)發(fā)流程大致如下:
初始業(yè)務(wù)數據倉庫開(kāi)發(fā)過(guò)程
可以想象,隨著(zhù)業(yè)務(wù)需求的不斷增加,這種煙囪式的開(kāi)發(fā)模式會(huì )暴露出很多問(wèn)題:
為此,大量企業(yè)的數據團隊開(kāi)始規劃數據倉庫,對數據進(jìn)行分層。
數據倉庫分層架構
數據組織成分層存儲,每一層獨立處理。整體遵循自下而上的構建思路,最大限度地為數據賦能。
2.2 穩定的離線(xiàn)數據倉庫
商業(yè)場(chǎng)景
要求每天出具每日用戶(hù)訪(fǎng)問(wèn)PV和UV流量報表,并將結果輸出到業(yè)務(wù)數據庫
在前期的規劃中,在對實(shí)時(shí)數據要求不高的前提下,我們一開(kāi)始基本上會(huì )選擇搭建離線(xiàn)數倉。
離線(xiàn)數倉建設流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
既然知道了 Hive 的計算速度比較慢,但是我們又不想放棄它高效的存儲和查詢(xún)功能。
那我們試試另一個(gè)計算引擎:Spark。
Spark離線(xiàn)數倉流程
整體流程不變,主要是Spark負責o(wú)ds->dwd->dws層的數據處理。效果很明顯,比Hive計算快很多。
注意Spark是內存級別的計算引擎,需要合理規劃內存大小,防止OOM(內存泄漏)。
目前,兩個(gè)離線(xiàn)數倉完美滿(mǎn)足了業(yè)務(wù)需求。第二天領(lǐng)導看了報表統計,結果大家都很開(kāi)心~
現在考慮另一種場(chǎng)景:你不想等到第二天才能看到結果,你需要實(shí)時(shí)顯示指標。這時(shí)候就需要搭建一個(gè)實(shí)時(shí)數據倉庫。
3 冗余還是可追溯性?
商業(yè)場(chǎng)景
實(shí)時(shí)統計每秒用戶(hù)訪(fǎng)問(wèn)PV、UV流量報表,結果輸出到業(yè)務(wù)數據庫,支持歷史數據回顧
既然要求達到實(shí)時(shí)效果,首先要考慮優(yōu)化處理計算過(guò)程。因此,需要更換Spark,使用Flink計算引擎。
在技??術(shù)實(shí)現上,業(yè)界常用的實(shí)時(shí)數倉架構有兩種:Lambda架構和Kappa架構。
3.1 Lambda架構
顧名思義,Lambda架構保留了實(shí)時(shí)和離線(xiàn)兩種處理流程,即實(shí)時(shí)數倉和離線(xiàn)數倉最終會(huì )同時(shí)構建。
Lambda架構實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
針對同一個(gè)數據源被處理兩次這一點(diǎn),對上述Lambda架構進(jìn)行了改進(jìn)。
改進(jìn)的 Lambda 實(shí)時(shí)數據倉庫流程
通過(guò)定時(shí)刷新實(shí)時(shí)技術(shù)流各層計算結果到離線(xiàn)數倉,數據源唯一讀取。大大減少了數據的重復計算,加快了程序的運行時(shí)間。
總結:數據存儲,計算冗余;歷史數據可追溯
3.2 Kappa架構
為了解決上述模式下數據的冗余存儲和計算問(wèn)題,降低技術(shù)架構的復雜度,這里引入另一種模式:Kappa架構。
Kappa實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
總結:數據存儲只計算一次;史料難以追溯
總的來(lái)說(shuō),雖然第一種Lambda架構有很多缺點(diǎn),但它具有程序健壯性和數據完整性,所以在企業(yè)中使用會(huì )更多。
相反,Kappa 架構使用較少。因為Kappa架構只使用Kafka作為存儲組件,需要同時(shí)滿(mǎn)足數據完整性和實(shí)時(shí)讀寫(xiě),這顯然很難實(shí)現。
Kappa架構的實(shí)時(shí)數倉之路將何去何從?
4 數據湖與實(shí)時(shí)數據倉庫
我們理解Kafka的定位是消息隊列,可以作為熱點(diǎn)數據的緩存介質(zhì),但不適合數據的查詢(xún)和存儲。
如果我們能找到一個(gè)替代 Kafka 的實(shí)時(shí)數據庫就好了。.
預期要求
1)能夠支持數據回溯和數據更新
2)實(shí)現數據批量流式讀寫(xiě),支持實(shí)時(shí)訪(fǎng)問(wèn)
4.1 數據湖技術(shù)
近年來(lái),隨著(zhù)數據湖技術(shù)的興起,似乎出現了一線(xiàn)希望。
?。▓D源網(wǎng)絡(luò ))
目前市場(chǎng)上最流行的三種數據湖:Delta、Apache Hudi 和 Apache Iceberg。
其中Delta和Apache Hudi對大部分計算引擎的支持都不夠,尤其是Delta完全源自Spark,不支持Flink。
其中Iceberg和Flink已經(jīng)完全實(shí)現了對接機制??纯此奶攸c(diǎn):
4.2 kappa架構升級
因此,考慮升級Kappa架構。使用Flink+Iceberg(Hudi)技術(shù)架構可以解決Kappa架構中的一些問(wèn)題。
升級Kappa實(shí)時(shí)數倉流程
目前,Flink 社區對 Iceberg(Hudi)的構建已經(jīng)逐漸成熟,不少已經(jīng)開(kāi)始基于 Flink + Iceberg(Hudi)構建企業(yè)級實(shí)時(shí)數倉。
更多實(shí)時(shí)數倉問(wèn)題可以咨詢(xún)我的wx:youlong525。
5 電商零售實(shí)時(shí)數倉實(shí)踐
紙上談兵總是膚淺,這里簡(jiǎn)單介紹一下老手之前做過(guò)的實(shí)時(shí)數倉案例。
使用的技術(shù)??赡苡悬c(diǎn)老,主要討論構建思路。
5.1 技術(shù)架構
電商零售實(shí)時(shí)數倉技術(shù)架構
系統整體采用Flink+Spark+Kafka為主要技術(shù)棧,自下而上構建電商零售實(shí)時(shí)數據倉庫,最終提供統一的數據服務(wù)。
1)底層利用Flink CDC技術(shù)實(shí)時(shí)抽取源數據,包括業(yè)務(wù)系統和第三方嵌入式數據(客戶(hù)中心、營(yíng)銷(xiāo)中心、銷(xiāo)售中心)。
// data格式
{
"data": [
{
"id": "13",
"order_id": "6BB4837EB74E4568DDA7DC67ED2CA2AD9",
"order_code": "order_x001",
<p>
"price": "135.00"
}
]
}
// flink cdc (示例)
CREATE TABLE order_detail_table (
id BIGINT,
order_id STRING,
order_code STRING,
price DECIMAL(10, 2)
) WITH (
'connector' = 'kafka',
'topic' = 'order_binlog',
'properties.bootstrap.servers' = 'localhost:9092',
'properties.group.id' = 'group001',
'canal-json.ignore-parse-errors'='true'
);
</p>
2)數據源經(jīng)過(guò)計算引擎和決策引擎轉換,構建實(shí)時(shí)詳細、實(shí)時(shí)輕度匯總、實(shí)時(shí)高層匯總模型,對應數據倉庫層:DWD、DWS , ADS 層。
初步規劃技術(shù)棧為Spark Streaming + Kafka。后來(lái)由于實(shí)時(shí)性要求,改為Flink + Kafka來(lái)滿(mǎn)足秒級響應。
電商實(shí)時(shí)數倉處理流程圖
3)建立實(shí)時(shí)數據倉庫模型后,將數據傳輸到存儲介質(zhì)中。包括ES、Redis、Mysql、Kafka等,最終對外提供API共享服務(wù)訪(fǎng)問(wèn)。
// 存儲介質(zhì)API服務(wù)
val esServices = new EsHandler[BaseHandler](dataFlows)
val kafkaServices = new KafkaHandler[BaseHandler](dataFlows)
val redisServices = new RedisHandler[BaseHandler](dataFlows)
val jdbcServices = new JDBCHandler[BaseHandler](dataFlows)
esServices.handle(args)
kafkaServices.handle(args)
redisServices.handle(args)
jdbcServices.handle(args)
4)最后對外提供API服務(wù),為智能推薦、會(huì )員畫(huà)像、數據挖掘、營(yíng)銷(xiāo)大屏等應用服務(wù)提供數據支持。
5.2 數據流
電商實(shí)時(shí)數倉數據流圖
總體來(lái)說(shuō),從上到下,數據經(jīng)過(guò)采集 -> 數據倉庫詳細處理、匯總 -> 應用步驟,提供實(shí)時(shí)數據倉庫服務(wù)。
下面是用戶(hù)分析的數據流程和技術(shù)路線(xiàn):
采集用戶(hù)行為數據,統計用戶(hù)曝光和點(diǎn)擊信息,構建用戶(hù)畫(huà)像。
電商實(shí)時(shí)數倉用戶(hù)分析數據流程
6 實(shí)時(shí)數倉優(yōu)化總結
1)實(shí)時(shí)數倉是Lambda架構還是Kappa架構?
這個(gè)沒(méi)有標準答案。這里給個(gè)建議: 一般中小型項目可能需要保證歷史數據的完整性。推薦使用Lambda架構提供離線(xiàn)流程保障。目前Kappa架構用得不多,受場(chǎng)景和實(shí)時(shí)技術(shù)棧因素影響。
2)數據丟失了怎么辦?
如果數據源丟失,可以重新消費(偏移位置);如果Flink窗口數據有延遲:可以手動(dòng)增加延遲時(shí)間來(lái)延遲關(guān)閉窗口;或者使用side output stream將延遲的數據保存起來(lái),然后合并;也可以延遲數據寫(xiě)入存儲介質(zhì),以便后續統一處理。
3)實(shí)時(shí)計算中的數據重復怎么辦?
4)如何進(jìn)行多個(gè)實(shí)時(shí)流的JOIN
Flink 內部提供了 JOIN 算子操作,包括 JOIN、window JOIN、Interval Join、connect 等算子。具體可以參考我的Flink雙流JOIN文章。
5)如何調度實(shí)時(shí)任務(wù)和離線(xiàn)任務(wù)
給YARN任務(wù)打標簽,分離離線(xiàn)和實(shí)時(shí)任務(wù),提交作業(yè)時(shí)指定Label;同時(shí)調整Yarn調度參數,合理分配多個(gè)容器執行。
技巧:愛(ài)站SEO工具包使用異地排名操作方法
愛(ài)站 SEO 工具包值得
使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。1.打開(kāi)愛(ài)站工具包,您將在異地查看愛(ài)站 SEO 工具包值得
使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。
1.打開(kāi)愛(ài)站工具包,您將看到此工具用于站外排名。
2、點(diǎn)擊遠程查詢(xún),在搜索引擎中輸入你想找的搜索引擎,輸入你關(guān)鍵詞
想要在關(guān)鍵詞列中查找,在域名區域輸入域名地址,直接點(diǎn)擊查詢(xún),會(huì )看到可以查詢(xún)的結果,如圖所示: 查看全部
解決方案:漫畫(huà)趣解Flink實(shí)時(shí)數倉:搬橡果
1 底漆(移動(dòng)橡子)
入冬了,我和小伙伴們開(kāi)始囤年貨了。
今年干了半年多,我們收獲了一整車(chē)的橡子。我們小松鼠喜歡把這些心愛(ài)的橡子放在儲藏室里。
于是我今天早早起床,開(kāi)始搬這些橡子。
過(guò)了一會(huì )兒,慧慧突然告訴我,她想吃昨天摘的一個(gè)灰色的小橡子。
我看著(zhù)眼前堆積如山的年貨,苦惱地摸了摸自己的腦袋:等我搬到那個(gè)給你。
慧慧很不高興,嘀咕道:為什么我們昨天一脫下來(lái)就不能動(dòng)呢?
我解釋說(shuō):我們每年存的錢(qián)只夠買(mǎi)一輛車(chē)一起搬家嗎?
看著(zhù)一旁生氣的灰灰,我放慢了背的速度~
抬頭看著(zhù)高高的橡子堆,他嘆了口氣。他一邊拿著(zhù),一邊尋找自己想要的小橡子。. .
今天怕是走不動(dòng)了~
2 慢還是快?
總而言之,我們在故事中遇到了一些小煩惱:
關(guān)鍵詞:速度慢、體量大、時(shí)效性差、搜索快、溯源性差。.
帶著(zhù)這個(gè)小故事,我回到了本文的主題。
這些關(guān)鍵詞也是企業(yè)實(shí)時(shí)數倉建設中經(jīng)常遇到的一些困難和訴求。
2.1 企業(yè)實(shí)時(shí)數倉建設需求
大多數企業(yè)都面臨著(zhù)數據來(lái)源多、結構復雜的問(wèn)題。為了更好地管理數據和賦能價(jià)值,他們往往在集團和部門(mén)內部建立數據倉庫。
一般初期的數據倉庫開(kāi)發(fā)流程大致如下:
初始業(yè)務(wù)數據倉庫開(kāi)發(fā)過(guò)程
可以想象,隨著(zhù)業(yè)務(wù)需求的不斷增加,這種煙囪式的開(kāi)發(fā)模式會(huì )暴露出很多問(wèn)題:
為此,大量企業(yè)的數據團隊開(kāi)始規劃數據倉庫,對數據進(jìn)行分層。
數據倉庫分層架構
數據組織成分層存儲,每一層獨立處理。整體遵循自下而上的構建思路,最大限度地為數據賦能。
2.2 穩定的離線(xiàn)數據倉庫
商業(yè)場(chǎng)景
要求每天出具每日用戶(hù)訪(fǎng)問(wèn)PV和UV流量報表,并將結果輸出到業(yè)務(wù)數據庫
在前期的規劃中,在對實(shí)時(shí)數據要求不高的前提下,我們一開(kāi)始基本上會(huì )選擇搭建離線(xiàn)數倉。
離線(xiàn)數倉建設流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
既然知道了 Hive 的計算速度比較慢,但是我們又不想放棄它高效的存儲和查詢(xún)功能。
那我們試試另一個(gè)計算引擎:Spark。
Spark離線(xiàn)數倉流程
整體流程不變,主要是Spark負責o(wú)ds->dwd->dws層的數據處理。效果很明顯,比Hive計算快很多。
注意Spark是內存級別的計算引擎,需要合理規劃內存大小,防止OOM(內存泄漏)。
目前,兩個(gè)離線(xiàn)數倉完美滿(mǎn)足了業(yè)務(wù)需求。第二天領(lǐng)導看了報表統計,結果大家都很開(kāi)心~
現在考慮另一種場(chǎng)景:你不想等到第二天才能看到結果,你需要實(shí)時(shí)顯示指標。這時(shí)候就需要搭建一個(gè)實(shí)時(shí)數據倉庫。
3 冗余還是可追溯性?
商業(yè)場(chǎng)景
實(shí)時(shí)統計每秒用戶(hù)訪(fǎng)問(wèn)PV、UV流量報表,結果輸出到業(yè)務(wù)數據庫,支持歷史數據回顧
既然要求達到實(shí)時(shí)效果,首先要考慮優(yōu)化處理計算過(guò)程。因此,需要更換Spark,使用Flink計算引擎。
在技??術(shù)實(shí)現上,業(yè)界常用的實(shí)時(shí)數倉架構有兩種:Lambda架構和Kappa架構。
3.1 Lambda架構

顧名思義,Lambda架構保留了實(shí)時(shí)和離線(xiàn)兩種處理流程,即實(shí)時(shí)數倉和離線(xiàn)數倉最終會(huì )同時(shí)構建。
Lambda架構實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
3)改進(jìn)
針對同一個(gè)數據源被處理兩次這一點(diǎn),對上述Lambda架構進(jìn)行了改進(jìn)。
改進(jìn)的 Lambda 實(shí)時(shí)數據倉庫流程
通過(guò)定時(shí)刷新實(shí)時(shí)技術(shù)流各層計算結果到離線(xiàn)數倉,數據源唯一讀取。大大減少了數據的重復計算,加快了程序的運行時(shí)間。
總結:數據存儲,計算冗余;歷史數據可追溯
3.2 Kappa架構
為了解決上述模式下數據的冗余存儲和計算問(wèn)題,降低技術(shù)架構的復雜度,這里引入另一種模式:Kappa架構。
Kappa實(shí)時(shí)數倉流程
1)技術(shù)實(shí)現
2)優(yōu)點(diǎn)和缺點(diǎn)
總結:數據存儲只計算一次;史料難以追溯
總的來(lái)說(shuō),雖然第一種Lambda架構有很多缺點(diǎn),但它具有程序健壯性和數據完整性,所以在企業(yè)中使用會(huì )更多。
相反,Kappa 架構使用較少。因為Kappa架構只使用Kafka作為存儲組件,需要同時(shí)滿(mǎn)足數據完整性和實(shí)時(shí)讀寫(xiě),這顯然很難實(shí)現。
Kappa架構的實(shí)時(shí)數倉之路將何去何從?
4 數據湖與實(shí)時(shí)數據倉庫
我們理解Kafka的定位是消息隊列,可以作為熱點(diǎn)數據的緩存介質(zhì),但不適合數據的查詢(xún)和存儲。
如果我們能找到一個(gè)替代 Kafka 的實(shí)時(shí)數據庫就好了。.
預期要求
1)能夠支持數據回溯和數據更新
2)實(shí)現數據批量流式讀寫(xiě),支持實(shí)時(shí)訪(fǎng)問(wèn)
4.1 數據湖技術(shù)
近年來(lái),隨著(zhù)數據湖技術(shù)的興起,似乎出現了一線(xiàn)希望。
?。▓D源網(wǎng)絡(luò ))
目前市場(chǎng)上最流行的三種數據湖:Delta、Apache Hudi 和 Apache Iceberg。
其中Delta和Apache Hudi對大部分計算引擎的支持都不夠,尤其是Delta完全源自Spark,不支持Flink。
其中Iceberg和Flink已經(jīng)完全實(shí)現了對接機制??纯此奶攸c(diǎn):
4.2 kappa架構升級
因此,考慮升級Kappa架構。使用Flink+Iceberg(Hudi)技術(shù)架構可以解決Kappa架構中的一些問(wèn)題。
升級Kappa實(shí)時(shí)數倉流程
目前,Flink 社區對 Iceberg(Hudi)的構建已經(jīng)逐漸成熟,不少已經(jīng)開(kāi)始基于 Flink + Iceberg(Hudi)構建企業(yè)級實(shí)時(shí)數倉。
更多實(shí)時(shí)數倉問(wèn)題可以咨詢(xún)我的wx:youlong525。
5 電商零售實(shí)時(shí)數倉實(shí)踐
紙上談兵總是膚淺,這里簡(jiǎn)單介紹一下老手之前做過(guò)的實(shí)時(shí)數倉案例。
使用的技術(shù)??赡苡悬c(diǎn)老,主要討論構建思路。
5.1 技術(shù)架構
電商零售實(shí)時(shí)數倉技術(shù)架構
系統整體采用Flink+Spark+Kafka為主要技術(shù)棧,自下而上構建電商零售實(shí)時(shí)數據倉庫,最終提供統一的數據服務(wù)。
1)底層利用Flink CDC技術(shù)實(shí)時(shí)抽取源數據,包括業(yè)務(wù)系統和第三方嵌入式數據(客戶(hù)中心、營(yíng)銷(xiāo)中心、銷(xiāo)售中心)。
// data格式
{
"data": [
{
"id": "13",
"order_id": "6BB4837EB74E4568DDA7DC67ED2CA2AD9",
"order_code": "order_x001",
<p>

"price": "135.00"
}
]
}
// flink cdc (示例)
CREATE TABLE order_detail_table (
id BIGINT,
order_id STRING,
order_code STRING,
price DECIMAL(10, 2)
) WITH (
'connector' = 'kafka',
'topic' = 'order_binlog',
'properties.bootstrap.servers' = 'localhost:9092',
'properties.group.id' = 'group001',
'canal-json.ignore-parse-errors'='true'
);
</p>
2)數據源經(jīng)過(guò)計算引擎和決策引擎轉換,構建實(shí)時(shí)詳細、實(shí)時(shí)輕度匯總、實(shí)時(shí)高層匯總模型,對應數據倉庫層:DWD、DWS , ADS 層。
初步規劃技術(shù)棧為Spark Streaming + Kafka。后來(lái)由于實(shí)時(shí)性要求,改為Flink + Kafka來(lái)滿(mǎn)足秒級響應。
電商實(shí)時(shí)數倉處理流程圖
3)建立實(shí)時(shí)數據倉庫模型后,將數據傳輸到存儲介質(zhì)中。包括ES、Redis、Mysql、Kafka等,最終對外提供API共享服務(wù)訪(fǎng)問(wèn)。
// 存儲介質(zhì)API服務(wù)
val esServices = new EsHandler[BaseHandler](dataFlows)
val kafkaServices = new KafkaHandler[BaseHandler](dataFlows)
val redisServices = new RedisHandler[BaseHandler](dataFlows)
val jdbcServices = new JDBCHandler[BaseHandler](dataFlows)
esServices.handle(args)
kafkaServices.handle(args)
redisServices.handle(args)
jdbcServices.handle(args)
4)最后對外提供API服務(wù),為智能推薦、會(huì )員畫(huà)像、數據挖掘、營(yíng)銷(xiāo)大屏等應用服務(wù)提供數據支持。
5.2 數據流
電商實(shí)時(shí)數倉數據流圖
總體來(lái)說(shuō),從上到下,數據經(jīng)過(guò)采集 -> 數據倉庫詳細處理、匯總 -> 應用步驟,提供實(shí)時(shí)數據倉庫服務(wù)。
下面是用戶(hù)分析的數據流程和技術(shù)路線(xiàn):
采集用戶(hù)行為數據,統計用戶(hù)曝光和點(diǎn)擊信息,構建用戶(hù)畫(huà)像。
電商實(shí)時(shí)數倉用戶(hù)分析數據流程
6 實(shí)時(shí)數倉優(yōu)化總結
1)實(shí)時(shí)數倉是Lambda架構還是Kappa架構?
這個(gè)沒(méi)有標準答案。這里給個(gè)建議: 一般中小型項目可能需要保證歷史數據的完整性。推薦使用Lambda架構提供離線(xiàn)流程保障。目前Kappa架構用得不多,受場(chǎng)景和實(shí)時(shí)技術(shù)棧因素影響。
2)數據丟失了怎么辦?
如果數據源丟失,可以重新消費(偏移位置);如果Flink窗口數據有延遲:可以手動(dòng)增加延遲時(shí)間來(lái)延遲關(guān)閉窗口;或者使用side output stream將延遲的數據保存起來(lái),然后合并;也可以延遲數據寫(xiě)入存儲介質(zhì),以便后續統一處理。
3)實(shí)時(shí)計算中的數據重復怎么辦?
4)如何進(jìn)行多個(gè)實(shí)時(shí)流的JOIN
Flink 內部提供了 JOIN 算子操作,包括 JOIN、window JOIN、Interval Join、connect 等算子。具體可以參考我的Flink雙流JOIN文章。
5)如何調度實(shí)時(shí)任務(wù)和離線(xiàn)任務(wù)
給YARN任務(wù)打標簽,分離離線(xiàn)和實(shí)時(shí)任務(wù),提交作業(yè)時(shí)指定Label;同時(shí)調整Yarn調度參數,合理分配多個(gè)容器執行。
技巧:愛(ài)站SEO工具包使用異地排名操作方法
愛(ài)站 SEO 工具包值得
使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。1.打開(kāi)愛(ài)站工具包,您將在異地查看愛(ài)站 SEO 工具包值得

使用,但愛(ài)站 SEO 工具包如何使用站外排名?那么下面我們來(lái)介紹一下使用站外排名愛(ài)站SEO工具包的操作方法,相信一定會(huì )對大家有所幫助。
1.打開(kāi)愛(ài)站工具包,您將看到此工具用于站外排名。

2、點(diǎn)擊遠程查詢(xún),在搜索引擎中輸入你想找的搜索引擎,輸入你關(guān)鍵詞
想要在關(guān)鍵詞列中查找,在域名區域輸入域名地址,直接點(diǎn)擊查詢(xún),會(huì )看到可以查詢(xún)的結果,如圖所示:
分享文章:公眾號排版文章批量導出-免費公眾號文章批量導出排版
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 186 次瀏覽 ? 2022-12-06 05:43
作為一名自媒體編輯,我一直密切關(guān)注著(zhù)很多文章寫(xiě)的非常好的公眾號文章,每次都會(huì )學(xué)習他們的寫(xiě)作方法和思維方式。但是,每當我專(zhuān)心學(xué)習時(shí),在手機上一一檢查與文章的鏈接就比較麻煩了。這是一個(gè)令人頭疼的問(wèn)題,我想永遠在計算機上保存好文章。我相信很多人會(huì )和我一樣想。
如果可以將官方帳戶(hù)的所有歷史記錄文章下載到計算機上,那會(huì )更方便。
但是如何做一個(gè)小工具來(lái)實(shí)現這個(gè)功能,無(wú)疑是最方便的就是用Python寫(xiě)代碼,但對于大多數白人來(lái)說(shuō),這仍然是一個(gè)非常復雜的事件,如果為了批量下載微信文章還要刻意學(xué)習Python語(yǔ)言,成本太大了。
前段時(shí)間我自己寫(xiě)了一個(gè),微信公眾號文章搜索導出助手
自己用的效果還是很不錯的,微信文章圖片、視頻音樂(lè ),包括文章留言都做完了!
排版還是相當不錯的
內容分享:今日頭條一鍵采集器一鍵抓取頭條文章內容
本插件可用于在發(fā)帖頁(yè)面一鍵發(fā)采集今日頭條文章,支持圖片本地化,可設置使用的論壇和用戶(hù)組
兩個(gè)版本的區別
單機版:不依賴(lài)其他插件,購買(mǎi)后即可使用,支持論壇和門(mén)戶(hù)
非單機版:免費,但依賴(lài)今日頭條汽車(chē)采集插件,需先購買(mǎi)、下載安裝今日頭條汽車(chē)采集插件
評論:
本插件僅針對采集今日頭條、圖文資訊文章、圖片庫,不針對采集投票、視頻、問(wèn)答等。
本插件需要php支持curl,curl可以正常獲取https鏈接內容 查看全部
分享文章:公眾號排版文章批量導出-免費公眾號文章批量導出排版
作為一名自媒體編輯,我一直密切關(guān)注著(zhù)很多文章寫(xiě)的非常好的公眾號文章,每次都會(huì )學(xué)習他們的寫(xiě)作方法和思維方式。但是,每當我專(zhuān)心學(xué)習時(shí),在手機上一一檢查與文章的鏈接就比較麻煩了。這是一個(gè)令人頭疼的問(wèn)題,我想永遠在計算機上保存好文章。我相信很多人會(huì )和我一樣想。
如果可以將官方帳戶(hù)的所有歷史記錄文章下載到計算機上,那會(huì )更方便。
但是如何做一個(gè)小工具來(lái)實(shí)現這個(gè)功能,無(wú)疑是最方便的就是用Python寫(xiě)代碼,但對于大多數白人來(lái)說(shuō),這仍然是一個(gè)非常復雜的事件,如果為了批量下載微信文章還要刻意學(xué)習Python語(yǔ)言,成本太大了。

前段時(shí)間我自己寫(xiě)了一個(gè),微信公眾號文章搜索導出助手
自己用的效果還是很不錯的,微信文章圖片、視頻音樂(lè ),包括文章留言都做完了!

排版還是相當不錯的
內容分享:今日頭條一鍵采集器一鍵抓取頭條文章內容
本插件可用于在發(fā)帖頁(yè)面一鍵發(fā)采集今日頭條文章,支持圖片本地化,可設置使用的論壇和用戶(hù)組
兩個(gè)版本的區別
單機版:不依賴(lài)其他插件,購買(mǎi)后即可使用,支持論壇和門(mén)戶(hù)

非單機版:免費,但依賴(lài)今日頭條汽車(chē)采集插件,需先購買(mǎi)、下載安裝今日頭條汽車(chē)采集插件
評論:
本插件僅針對采集今日頭條、圖文資訊文章、圖片庫,不針對采集投票、視頻、問(wèn)答等。

本插件需要php支持curl,curl可以正常獲取https鏈接內容
測評:快優(yōu)助手和優(yōu)采云 采集器哪個(gè)好??jì)?yōu)采云 采集器和快優(yōu)助手對比
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 112 次瀏覽 ? 2022-12-02 17:46
采集器哪個(gè)好??jì)?yōu)采云
采集器和快優(yōu)助手對比
除了讓媒體號的運營(yíng)更簡(jiǎn)單,快游助手還可以輕松管理矩陣號,或者對單個(gè)號進(jìn)行深度運營(yíng)設計,是最好用的免費運營(yíng)工具之一。那么,快游助手和優(yōu)采云
采集器
哪個(gè)更好呢?針對這個(gè)問(wèn)題,今天小編為大家帶來(lái)了優(yōu)采云
采集器與快游助手的對比。
快游助手
快游助手是一款非常好用的自媒體運營(yíng)工具。每天可更新上百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容??煊沃肿屆襟w號的操作變得更簡(jiǎn)單,輕松管理矩陣號,或者單個(gè)大號的深度操作。
特征
1. 快速搜索/創(chuàng )造優(yōu)質(zhì)文章
每天更新超過(guò)百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容。
2.一站式賬號管理、素材采集、內容創(chuàng )作、數據分析運營(yíng)神器
所有平臺/所有終端/全部免費。
3. 快速分析/多維數據分析
多維數據,讓您每天了解最新的賬戶(hù)數據,助您寫(xiě)出爆款文章。
4.強大的編輯器創(chuàng )建和采集
素材,并根據文章推導符合新媒體機制的推薦關(guān)鍵詞
在線(xiàn)圖片搜索/精美款式/多維分析。
小編推薦:快游助手下載
優(yōu)采云
采集器
優(yōu)采云
Collector是谷歌原技術(shù)團隊打造的一款網(wǎng)頁(yè)數據采集
軟件??梢暬c(diǎn)擊,一鍵采集網(wǎng)頁(yè)數據。全平臺可用,Win/Mac/Linux,優(yōu)采云
采集設備的采集導出全部免費,無(wú)限制使用,可后臺運行,速度實(shí)時(shí)顯示。
特征
1.可視化定制采集流程
全程問(wèn)答指導,可視化操作,自定義采集流程。
自動(dòng)記錄和模擬網(wǎng)頁(yè)操作順序。
高級設置滿(mǎn)足更多采集
需求。
2.點(diǎn)擊提取網(wǎng)頁(yè)數據
鼠標點(diǎn)擊選擇要抓取的網(wǎng)頁(yè)內容,操作簡(jiǎn)單。
可選擇提取文本、鏈接、屬性、html 標簽等。
3.運行批量數據采集
軟件根據采集流程和提取規則自動(dòng)批量采集。
快速穩定,實(shí)時(shí)顯示采集速度和過(guò)程。
軟件可以切換到后臺運行,不影響前臺工作。
4.導出并發(fā)布采集
的數據
采集的數據自動(dòng)制表,字段自由配置。
支持數據導出到Excel等本地文件。
并一鍵發(fā)布到CMS網(wǎng)站/數據庫/微信公眾號等媒體。
小編推薦:優(yōu)采云
采集
下載
匯總:眾大云采集織夢(mèng)無(wú)限制
中大云采集
織夢(mèng)無(wú)限是一款非常好用的網(wǎng)頁(yè)數據采集
工具,可以幫助用戶(hù)采集
網(wǎng)頁(yè)的各種內容,通過(guò)關(guān)鍵詞搜索智能采集
相關(guān)信息和實(shí)時(shí)熱點(diǎn)。歡迎下載使用!
插件功能
1.中大云集可以批量注冊馬甲用戶(hù)。發(fā)帖人和評論使用馬甲,看起來(lái)和真實(shí)注冊用戶(hù)發(fā)的一模一樣。
2、中大云采集
可以批量采集發(fā)布,任何優(yōu)質(zhì)內容都可以在短時(shí)間內轉發(fā)到您的論壇和門(mén)戶(hù)。
3、中大云采集可定時(shí)采集自動(dòng)發(fā)布,實(shí)現無(wú)人值守。
4、采集內容可進(jìn)行簡(jiǎn)繁體轉換、偽原創(chuàng )等二次加工。
5、中大云采集支持前臺采集,可以授權指定普通注冊用戶(hù)在前臺使用本采集器,讓普通注冊會(huì )員幫你采集內容。
6、采集
的內容圖片可以正常顯示并保存為帖子圖片附件或傳送門(mén)文章附件,圖片永不丟失。
7、圖片附件支持遠程FTP存儲,讓您將圖片單獨存放到另一臺服務(wù)器上。
8. 圖片會(huì )加上您的論壇或門(mén)戶(hù)設置的水印。
9.已經(jīng)采集
的內容不會(huì )重復采集
,內容不會(huì )重復。
1、中大云發(fā)布的帖子或門(mén)戶(hù)文章、群組與真實(shí)用戶(hù)發(fā)布的完全一致,其他人無(wú)法知道是否使用采集器發(fā)帖。
11、瀏覽量會(huì )自動(dòng)隨機設置,感覺(jué)你的帖子或傳送門(mén)文章的瀏覽量和真實(shí)的一樣。
12、中大云集可以指定帖子發(fā)布者(樓主)、門(mén)戶(hù)文章作者、群發(fā)帖者。
13、采集
的內容可以發(fā)布到論壇任意版塊、門(mén)戶(hù)任意欄目、群任意圈子。
14、中大云集一鍵獲取當日實(shí)時(shí)熱點(diǎn)內容,一鍵發(fā)布。
15、不限制內容采集量和采集次數,讓您的網(wǎng)站快速充斥優(yōu)質(zhì)內容。
16.插件內置文本提取算法。前臺發(fā)布內容時(shí),輸入網(wǎng)址即可采集內容。 查看全部
測評:快優(yōu)助手和優(yōu)采云
采集器哪個(gè)好??jì)?yōu)采云
采集器和快優(yōu)助手對比
除了讓媒體號的運營(yíng)更簡(jiǎn)單,快游助手還可以輕松管理矩陣號,或者對單個(gè)號進(jìn)行深度運營(yíng)設計,是最好用的免費運營(yíng)工具之一。那么,快游助手和優(yōu)采云
采集器
哪個(gè)更好呢?針對這個(gè)問(wèn)題,今天小編為大家帶來(lái)了優(yōu)采云
采集器與快游助手的對比。
快游助手
快游助手是一款非常好用的自媒體運營(yíng)工具。每天可更新上百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容??煊沃肿屆襟w號的操作變得更簡(jiǎn)單,輕松管理矩陣號,或者單個(gè)大號的深度操作。
特征
1. 快速搜索/創(chuàng )造優(yōu)質(zhì)文章
每天更新超過(guò)百萬(wàn)篇文章,涵蓋各個(gè)行業(yè)和垂直領(lǐng)域。熱門(mén)內容和優(yōu)質(zhì)原創(chuàng )文章,助您快速發(fā)現或創(chuàng )作優(yōu)質(zhì)內容。
2.一站式賬號管理、素材采集、內容創(chuàng )作、數據分析運營(yíng)神器
所有平臺/所有終端/全部免費。
3. 快速分析/多維數據分析
多維數據,讓您每天了解最新的賬戶(hù)數據,助您寫(xiě)出爆款文章。

4.強大的編輯器創(chuàng )建和采集
素材,并根據文章推導符合新媒體機制的推薦關(guān)鍵詞
在線(xiàn)圖片搜索/精美款式/多維分析。
小編推薦:快游助手下載
優(yōu)采云
采集器
優(yōu)采云
Collector是谷歌原技術(shù)團隊打造的一款網(wǎng)頁(yè)數據采集
軟件??梢暬c(diǎn)擊,一鍵采集網(wǎng)頁(yè)數據。全平臺可用,Win/Mac/Linux,優(yōu)采云
采集設備的采集導出全部免費,無(wú)限制使用,可后臺運行,速度實(shí)時(shí)顯示。
特征
1.可視化定制采集流程
全程問(wèn)答指導,可視化操作,自定義采集流程。
自動(dòng)記錄和模擬網(wǎng)頁(yè)操作順序。
高級設置滿(mǎn)足更多采集
需求。
2.點(diǎn)擊提取網(wǎng)頁(yè)數據

鼠標點(diǎn)擊選擇要抓取的網(wǎng)頁(yè)內容,操作簡(jiǎn)單。
可選擇提取文本、鏈接、屬性、html 標簽等。
3.運行批量數據采集
軟件根據采集流程和提取規則自動(dòng)批量采集。
快速穩定,實(shí)時(shí)顯示采集速度和過(guò)程。
軟件可以切換到后臺運行,不影響前臺工作。
4.導出并發(fā)布采集
的數據
采集的數據自動(dòng)制表,字段自由配置。
支持數據導出到Excel等本地文件。
并一鍵發(fā)布到CMS網(wǎng)站/數據庫/微信公眾號等媒體。
小編推薦:優(yōu)采云
采集
下載
匯總:眾大云采集織夢(mèng)無(wú)限制
中大云采集
織夢(mèng)無(wú)限是一款非常好用的網(wǎng)頁(yè)數據采集
工具,可以幫助用戶(hù)采集
網(wǎng)頁(yè)的各種內容,通過(guò)關(guān)鍵詞搜索智能采集
相關(guān)信息和實(shí)時(shí)熱點(diǎn)。歡迎下載使用!
插件功能
1.中大云集可以批量注冊馬甲用戶(hù)。發(fā)帖人和評論使用馬甲,看起來(lái)和真實(shí)注冊用戶(hù)發(fā)的一模一樣。
2、中大云采集
可以批量采集發(fā)布,任何優(yōu)質(zhì)內容都可以在短時(shí)間內轉發(fā)到您的論壇和門(mén)戶(hù)。
3、中大云采集可定時(shí)采集自動(dòng)發(fā)布,實(shí)現無(wú)人值守。

4、采集內容可進(jìn)行簡(jiǎn)繁體轉換、偽原創(chuàng )等二次加工。
5、中大云采集支持前臺采集,可以授權指定普通注冊用戶(hù)在前臺使用本采集器,讓普通注冊會(huì )員幫你采集內容。
6、采集
的內容圖片可以正常顯示并保存為帖子圖片附件或傳送門(mén)文章附件,圖片永不丟失。
7、圖片附件支持遠程FTP存儲,讓您將圖片單獨存放到另一臺服務(wù)器上。
8. 圖片會(huì )加上您的論壇或門(mén)戶(hù)設置的水印。
9.已經(jīng)采集
的內容不會(huì )重復采集
,內容不會(huì )重復。
1、中大云發(fā)布的帖子或門(mén)戶(hù)文章、群組與真實(shí)用戶(hù)發(fā)布的完全一致,其他人無(wú)法知道是否使用采集器發(fā)帖。

11、瀏覽量會(huì )自動(dòng)隨機設置,感覺(jué)你的帖子或傳送門(mén)文章的瀏覽量和真實(shí)的一樣。
12、中大云集可以指定帖子發(fā)布者(樓主)、門(mén)戶(hù)文章作者、群發(fā)帖者。
13、采集
的內容可以發(fā)布到論壇任意版塊、門(mén)戶(hù)任意欄目、群任意圈子。
14、中大云集一鍵獲取當日實(shí)時(shí)熱點(diǎn)內容,一鍵發(fā)布。
15、不限制內容采集量和采集次數,讓您的網(wǎng)站快速充斥優(yōu)質(zhì)內容。
16.插件內置文本提取算法。前臺發(fā)布內容時(shí),輸入網(wǎng)址即可采集內容。
解決方案:【目標檢測】英雄聯(lián)盟能用YOLOv5實(shí)時(shí)目標檢測了 支持onnx推理
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 173 次瀏覽 ? 2022-11-30 10:53
目錄
一、項目介紹
dcmyolo(夢(mèng)想創(chuàng )造奇跡),中文:大智能物體檢測工具包。該項目基于pytorch構建。構建的目的是提供一個(gè)性能更好的YOLO版本。同時(shí)擁有豐富的中文教程和詳細的源碼解讀。提供了算法工具箱,給出了不同體積模型的實(shí)驗數據,為算法的實(shí)現提供了指導。來(lái)的方便。為了方便開(kāi)發(fā)者,項目開(kāi)箱即用。推理階段,直接把test dcmyolo目錄放到項目中,實(shí)例化一個(gè)類(lèi),然后調用。
很多教程都是基于coco和voc數據集,我也會(huì )提供基于coco數據集的預訓練模型。為了增加趣味性,我將以英雄聯(lián)盟中英雄、小兵、塔的檢測為例,詳細介紹dcmyolo的使用。
項目鏈接:
資料鏈接: 提取碼:faye
測試視頻: 提取碼:faye
預訓練模型: 提取碼:faye
標注工具: 提取碼:faye
效果演示:英雄聯(lián)盟可以使用YOLOv5實(shí)時(shí)目標檢測_英雄聯(lián)盟
2.項目結構
dcmyolo項目主目錄
+數據存儲訓練和測試數據
- dcmyolo實(shí)現了項目的所有核心功能,移植時(shí)直接測試該目錄即可
- 模型模型構建相關(guān)
+ backbone 各種backbone,目前只有CSPdarknet,未來(lái)會(huì )不斷豐富
yolo_body.py構建模型的類(lèi),實(shí)例化后使用
+ model_data 存儲模型文件
+ utils 工具類(lèi)
labelme2voc.py 將labelme的json文件轉為voc格式
voc2annotation_txt.py 將VOC格式轉換成項目需要的格式
make_anchors.py 生成數據集的anchors文件
train_dcmyolo.py 執行訓練
export.py 導出onnx等格式的文件
predict_dcmyolo.py 推理演示
predict_onnx.pypth 轉換onnx,onnx進(jìn)行推理demo
3.準備數據
我們需要制作三個(gè)文件train.txt、val.txt、test.txt,格式如下:
data/wangzhe/JPEGImages/1.jpg 910,504,1035,633,0 1759,113,1920,383,2
data/wangzhe/JPEGImages/10.jpg 805,189,1060,570,0 1,649,273,935,2 1636,70,1823,182,2
data/wangzhe/JPEGImages/100.jpg 896,258,1254,550,3
data/wangzhe/JPEGImages/101.jpg 869,416,1059,591,0 277,295,464,407,4 1024,311,1369,640,3
文件中一張圖片為一行,一行中的每條信息以空格分隔。第一塊是圖片存放的路徑。這里我們放在項目中的data/wangzhe/JPEGImages目錄下;其余幾塊表示方框的位置和類(lèi)別,每段用逗號分成5個(gè)部分,分別代表左上x(chóng)、左上y、右下x、右下y,以及所屬類(lèi)別的索引他們屬于哪個(gè)。
如果只有圖片,沒(méi)有標簽,我們需要進(jìn)行下面的數據標注和數據格式轉換步驟。這個(gè)過(guò)程非常簡(jiǎn)單,而且是體力勞動(dòng)。
如果使用開(kāi)源數據集,我們需要自己將數據集的標注文件轉換成上述格式,不需要下面的步驟。
如果你用的是我整理的英雄聯(lián)盟手游數據,直接下載數據解壓到項目的data目錄下,就可以直接使用了,不需要下面的步驟。
1、數據標注
這一步是用來(lái)制作我們自己的數據集的。我們使用 labelme 作為標注工具。標注好后,我們使用腳本將標注文件轉成voc格式,再從voc轉成我們需要的格式。上面是labelme的下載鏈接,解壓后使用方法如下:
?。?)雙擊main.exe打開(kāi)labelme
(2) 選擇要標注的圖片目錄。這里我準備了100多張英雄聯(lián)盟的截圖,比如項目中的data/wangzhe_org/目錄。
?。?)右側會(huì )列出該文件夾下的所有圖片,選擇一張圖片,在圖片區域右擊選擇矩形
?。?)選擇一個(gè)矩形框的目標(英雄),填寫(xiě)類(lèi)別名稱(chēng),點(diǎn)擊確定完成一個(gè)目標的標注。注意:一定要選擇從左上角到右下角的邊框;在同一張圖片中標記盡可能多的目標,不要錯過(guò)它們;同一類(lèi)別的名稱(chēng)必須相同,不同類(lèi)別的名稱(chēng)不能相同;類(lèi)別名稱(chēng)使用英文(區分大小寫(xiě)),無(wú)標點(diǎn)符號。
(5)標記一張圖片后,選擇下一張圖片時(shí),會(huì )提示保存json文件,保存到默認目錄即可,不要更改目錄。
2.數據轉換格式
我們已經(jīng)得到了labelme生成的json格式的標準文件,我們需要先將其轉換成VOC格式,然后再轉換成我們需要的格式。
(1) 轉換成VOC格式
執行工程中的labelme2voc.py文件,示例如下:
'''
data/wangzhe_org/: 存放原圖片和labelme生成的json文件的目錄
data/wangzhe/:? ? ? 目標目錄
labels:? ? ? ? ? ? ?存放所有列表標簽的文件,英雄聯(lián)盟的數據集標簽文件已經(jīng)放在項目的dcmyolo/model_data/wangzhe_classes.txt文件中
'''
python labelme2voc.py data/wangzhe_org/ data/wangzhe/ --labels dcmyolo/model_data/wangzhe_classes.txt
其中,dcmyolo/model_data/wangzhe_classes.txt文件,共有3種標簽文件如下:
Hero
Solider
Tower
VOC格式有以下4個(gè)文件,Annotations存放標簽文件,AnnotationsVisualization存放用方框標注的圖片,方便我們查看,JPEGImages存放圖片,class_names.txt存放所有類(lèi)別的標簽。接下來(lái)我們將只使用 Annotations 和 JPEGImages:
?。?)轉換工程需要的格式
執行項目中的voc2annotation_txt.py文件,示例如下:
'''
classes_path: ? ????存放標簽種類(lèi)的文件
data_dir: ? ????????存數據的目錄,寫(xiě)到Annotations上一級
trainval_percent: ? 用于指定(訓練集+驗證集)與測試集的比例,默認情況下 9:1
train_percent: ? ???用于指定(訓練集+驗證集)中訓練集與驗證集的比例,默認情況下 9:1
'''
python voc2annotation_txt.py --classes_path dcmyolo/model_data/wangzhe_classes.txt --data_dir data/wangzhe/ --trainval_percent 0.95 --train_percent 0.95
至此我們已經(jīng)生成了項目需要的標簽文件,可以進(jìn)行訓練了。
4.執行力訓練
所有數據文件和配置文件的文件名和目錄都是可以自定義的,下面我會(huì )按照自己的習慣存放這些文件。
1.錨文件
文件放在dcmyolo/model_data/wangzhe_classes.txt
原來(lái)yolov5提到的改進(jìn)之一就是不需要手動(dòng)生成anchors。事實(shí)上,生成anchor的方法在訓練之前就被丟棄了。我比較習慣手動(dòng)生成anchor,也不麻煩。
anchors的作用下一篇講原理的時(shí)候會(huì )提到,現在我們只需要生成即可,使用make_anchors.py生成:
'''
txt_path: 標注文件txt
anchors_path: anchors文件txt
clusters: 聚類(lèi)的數目,一般情況下是9
input_size: 模型中圖像的輸入尺寸
'''
python make_anchors.py --txt_path data/wangzhe/train.txt --anchors_path dcmyolo/model_data/wangzhe_anchors.txt --clusters 9 --input_size 640
生成的文件 wangzhe_anchors.txt 如下所示:
25,44,30,58,37,64,50,68,42,91,55,104,71,113,62,141,91,256
2.標簽文件
文件放在dcmyolo/model_data/wangzhe_classes.txt,內容是標注三類(lèi),每行一類(lèi):
Hero
Solider
Tower
3.預訓練模型
下載好預訓練模型后,解壓放到dcmyolo/model_data/下。
預訓練模型有兩種,backbone和yolov5。Backbone只是在imagenet上預訓練的分類(lèi)模型,yolov5是在coco數據集上訓練的yolov5模型。如果同時(shí)加載了backbone和yolov5預訓練模型,backbone參數會(huì )被覆蓋。yolov5預訓練模型收錄
了一些backbone沒(méi)有的卷積層。如果fine-tuning推薦使用yolov5預訓練模型,收斂會(huì )更快。
4.訓練數據
將上述數據集解壓,放到data目錄下。
如果是自己標注的數據,將三個(gè)核心文件train.txt、val.txt、test.txt放在data/wangzhe/目錄下,同時(shí)保證這三個(gè)文件中的圖片路徑正確. 結構如下,其中ImageSets目錄為臨時(shí)目錄,不用于訓練,可以省略。
5.修改配置
所有參數的定義和注釋如下,為了節省篇幅,去掉了之前的parser.add_argument:
('--classes_path', type=str, default='dcmyolo/model_data/coco_classes.txt', help="類(lèi)別標簽文件路徑")
('--anchors_path', type=str, default='dcmyolo/model_data/coco_anchors.txt', help="anchors文件路徑")
('--train_annotation_path', type=str, default='data/coco/train.txt', help="存放訓練集圖片路徑和標簽的txt")
('--val_annotation_path', type=str, default='data/coco/val.txt', help="存放驗證圖片路徑和標簽的txt")
('--phi', type=str, default='s', help="所使用的YoloV5的版本。n、s、m、l、x")
# ---------------------------------------------------------------------#
# --backbone_model_dir參數
# 如果有backbone的預訓練模型,可以backbone預訓練模型目錄,當model_path不存在的時(shí)候不加載整個(gè)模型的權值。
# 只寫(xiě)到模型文件的上一級目錄即可,文件名會(huì )根據phi自動(dòng)計算(前提是從百度網(wǎng)盤(pán)下載的模型文件名沒(méi)改)
# ---------------------------------------------------------------------#
('--backbone_model_dir', type=str, default='dcmyolo/model_data/', help="backbone的預訓練模型,寫(xiě)到上一級目錄即可")
('--model_path', type=str, default='dcmyolo/model_data/pretrained.pth', help="yolov5預訓練模型的路徑")
('--save_period', type=int, default=10, help="多少個(gè)epoch保存一次權值")
('--save_dir', type=str, default='logs_wangzhe', help="權值與日志文件保存的文件夾")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--use_fp16', action='store_true', help="是否使用混合精度訓練")
#------------------------------------------------------------------#
# mosaic 馬賽克數據增強。
# mosaic_prob 每個(gè)step有多少概率使用mosaic數據增強,默認50%。
#
# mixup 是否使用mixup數據增強,僅在mosaic=True時(shí)有效。
# 只會(huì )對mosaic增強后的圖片進(jìn)行mixup的處理。
# mixup_prob 有多少概率在mosaic后使用mixup數據增強,默認50%。
# 總的mixup概率為mosaic_prob * mixup_prob。
#
# special_aug_ratio 參考YoloX,由于Mosaic生成的訓練圖片,遠遠脫離自然圖片的真實(shí)分布。
# 當mosaic=True時(shí),本代碼會(huì )在special_aug_ratio范圍內開(kāi)啟mosaic。
# 默認為前70%個(gè)epoch,100個(gè)世代會(huì )開(kāi)啟70個(gè)世代。
#------------------------------------------------------------------#
('--use_mosaic', action='store_true', help="是否使用馬賽克數據增強")
('--mosaic_prob', type=float, default=0.5, help="每個(gè)step有多少概率使用mosaic數據增強")
('--use_mixup', action='store_true', help="是否使用mixup數據增強,僅在mosaic=True時(shí)有效")
('--mixup_prob', type=float, default=0.5, help="有多少概率在mosaic后使用mixup數據增強")
('--special_aug_ratio', type=float, default=0.7, help="當mosaic=True時(shí),會(huì )在該范圍內開(kāi)啟mosaic")
('--epoch', type=int, default=100, help="總迭代次數")
('--batch_size', type=int, default=128, help="每批次取多少張圖片")
('--label_smoothing', type=float, default=0, help="是否開(kāi)啟標簽平滑")
('--init_lr', type=float, default=1e-2, help="初始學(xué)習率")
('--min_lr', type=float, default=1e-4, help="最小學(xué)習率")
('--optimizer_type', type=str, default="sgd", help="使用到的優(yōu)化器種類(lèi),可選的有adam、sgd")
('--momentum', type=float, default=0.937, help="優(yōu)化器內部使用到的momentum參數")
('--weight_decay', type=float, default=5e-4, help="權值衰減,可防止過(guò)擬合")
('--lr_decay_type', type=str, default="step", help="使用到的學(xué)習率下降方式,可選的有step、cos")
('--eval_flag', action='store_true', help="是否在訓練時(shí)進(jìn)行評估,評估對象為驗證集")
('--eval_period', type=int, default=10, help="代表多少個(gè)epoch評估一次")
('--num_workers', type=int, default=4, help="多少個(gè)線(xiàn)程讀取數據")
示例腳本 train_dcmyolo.sh:
for i in $(ps -ax |grep train_dcmyolo |awk '{print $1}')
do
id=`echo $i |awk -F"/" '{print $1}'`
<p>
kill -9 $id
done
nohup python -u train_dcmyolo.py \
--classes_path dcmyolo/model_data/wangzhe_classes.txt \
--anchors_path dcmyolo/model_data/coco_anchors.txt \
--train_annotation_path data/wangzhe/train.txt \
--val_annotation_path data/wangzhe/val.txt \
--save_dir logs_wangzhe \
--phi s \
--backbone_model_dir dcmyolo/model_data \
--model_path dcmyolo/model_data/yolov5_s.pth \
--input_shape 640 640 \
--batch_size 4 \
--epoch 1000 \
--save_period 100 \
> log_train_dcmyolo.log &
tail -f log_train_dcmyolo.log
</p>
6.執行力訓練
執行以下腳本進(jìn)行訓練,訓練結果會(huì )放在logs_wangzhe目錄下。
./train_dcmyolo.sh
五、執行預測
推理和預測方法都在predict_dcmyolo.py中,可以檢測圖片、檢測視頻和熱圖。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.檢測圖片
檢測圖片,示例腳本如下:
python predict_dcmyolo.py --operation_type predict_image --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt
在控制臺輸入圖片路徑,會(huì )顯示檢測結果:
2.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_dcmyolo.py --operation_type predict_video --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --video_path data/video/wangzhe1.mp4 --video_save_path_path data/video/wangzhe1_out.mp4
3.熱圖
示例腳本如下:
python predict_dcmyolo.py --operation_type heatmap --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --heatmap_save_path data/heatmap.jpg
與檢測圖片類(lèi)似,在控制臺輸入圖片路徑,即可顯示熱圖??梢郧宄乜吹郊せ顓^域,證明模型確實(shí)很好地檢測到了目標。
5.轉換onnx
將模型導出為onnx格式,有利于模型加速,便于模型部署。所有onnx相關(guān)的方法都放在predict_onnx.py中??梢詫С鰋nnx文件,檢測圖片,檢測視頻。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.導出onnx文件
建議導出的onnx收錄
nms,這樣可以直接使用onnx輸出的結果,不需要程序進(jìn)行后期處理。加上--append_nms參數,可以讓聯(lián)通nms導出,onnx結果會(huì )報有指定的輸出路徑。示例腳本如下:
python predict_onnx.py --operation_type export_onnx --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --append_nms
2.檢測圖片
使用onnx模型檢測圖片,示例腳本如下:
python predict_onnx.py --operation_type predict_image --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt
在控制臺輸入圖片路徑,即可顯示檢測結果??梢钥吹給nnx和pytorch的結果是一致的。
3.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_onnx.py --operation_type predict_video --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt --video_path data/video/wangzhe1.mp4 --video_save_path data/video/wangzhe1_out1.mp4
英雄聯(lián)盟YOLOv5實(shí)時(shí)檢測的功能這里簡(jiǎn)單介紹一下。下一篇我會(huì )介紹YOLOv5的實(shí)現原理。dcmyolo項目會(huì )持續維護,會(huì )增加越來(lái)越多的功能,敬請期待。
解決方案:基于web的文章管理系統(完整源碼+論文全套+教學(xué)視頻)
實(shí)現一個(gè)web文章管理系統,也就是說(shuō)可以基于瀏覽器管理各種數據信息。也可以看作是一個(gè)B/S架構的文章管理系統。系統分為前后臺,實(shí)現在線(xiàn)操作,實(shí)現文章管理系統的各項功能,實(shí)現用戶(hù)管理、登錄注冊、權限管理等功能,管理與各種文章相關(guān)的實(shí)體管理系統。
文章管理系統是采用mvc設計模式開(kāi)發(fā)的B/S架構項目,采用分層架構對項目進(jìn)行架構,分為pojo+action+service,其中pojo表示文章的各個(gè)數據庫表對應的實(shí)體系統,文章管理系統經(jīng)過(guò)詳細的需求分析和數據庫設計,設計實(shí)現了以下模塊,分別是登錄模塊,權限管理模塊,用戶(hù)管理模塊,文章管理系統信息管理模塊等。并通過(guò)java實(shí)現抽象類(lèi)
開(kāi)發(fā)環(huán)境系統需求分析及流程圖
一般來(lái)說(shuō),這類(lèi)項目的主要目的是掌握基本的web開(kāi)發(fā)知識,所以在實(shí)施文章管理系統的課程設計時(shí),需要先采集
其他文章管理系統的產(chǎn)品分析,進(jìn)行深入的數據庫web系統的設計,并基于mvc模式編寫(xiě)代碼,使用layui搭建頁(yè)面,進(jìn)而完成文章管理系統各模塊的開(kāi)發(fā)
數據庫課程設計
數據庫設計是整個(gè)文章管理系統的關(guān)鍵。合理的數據庫設計直接影響文章管理系統能否完美運行不報錯。本系統采用mysql數據庫作為數據存儲,引擎采用innoddb。文章管理系統將按照數據庫設計原則進(jìn)行數據分表設計
系統演示視頻運行截圖
基于Web的文章管理系統-登錄功能接口-網(wǎng)站實(shí)現
基于Web的文章管理系統-前臺首頁(yè)-網(wǎng)頁(yè)設計
基于Web的文章管理系統-后臺信息管理頁(yè)面-網(wǎng)頁(yè)設計
文章管理系統系統架構圖
預防措施
基于web的文章管理系統項目自帶源碼、試卷、sql數據庫、答辯ppt、期中檢查報告
登錄地址:8080/login.jsp
后臺地址:8080/admin/login.jsp
測試用戶(hù)cswork admin bishe 密碼123456
測試管理員admin密碼admin bishe
函數列表
文章管理系統系統登錄模塊,實(shí)現文章管理系統的登錄注冊功能
文章管理系統用戶(hù)管理模塊實(shí)現文章管理系統的信息管理和角色管理功能
前臺信息管理模塊,面向普通用戶(hù),實(shí)現普通用戶(hù)對文章管理系統自定義查詢(xún)的錄入和修改
超級管理員管理,實(shí)現文章管理系統系統各模塊后臺管理員管理功能,同意核心數據最佳權限管理 查看全部
解決方案:【目標檢測】英雄聯(lián)盟能用YOLOv5實(shí)時(shí)目標檢測了 支持onnx推理
目錄
一、項目介紹
dcmyolo(夢(mèng)想創(chuàng )造奇跡),中文:大智能物體檢測工具包。該項目基于pytorch構建。構建的目的是提供一個(gè)性能更好的YOLO版本。同時(shí)擁有豐富的中文教程和詳細的源碼解讀。提供了算法工具箱,給出了不同體積模型的實(shí)驗數據,為算法的實(shí)現提供了指導。來(lái)的方便。為了方便開(kāi)發(fā)者,項目開(kāi)箱即用。推理階段,直接把test dcmyolo目錄放到項目中,實(shí)例化一個(gè)類(lèi),然后調用。
很多教程都是基于coco和voc數據集,我也會(huì )提供基于coco數據集的預訓練模型。為了增加趣味性,我將以英雄聯(lián)盟中英雄、小兵、塔的檢測為例,詳細介紹dcmyolo的使用。
項目鏈接:
資料鏈接: 提取碼:faye
測試視頻: 提取碼:faye
預訓練模型: 提取碼:faye
標注工具: 提取碼:faye
效果演示:英雄聯(lián)盟可以使用YOLOv5實(shí)時(shí)目標檢測_英雄聯(lián)盟
2.項目結構
dcmyolo項目主目錄
+數據存儲訓練和測試數據
- dcmyolo實(shí)現了項目的所有核心功能,移植時(shí)直接測試該目錄即可
- 模型模型構建相關(guān)
+ backbone 各種backbone,目前只有CSPdarknet,未來(lái)會(huì )不斷豐富
yolo_body.py構建模型的類(lèi),實(shí)例化后使用
+ model_data 存儲模型文件
+ utils 工具類(lèi)
labelme2voc.py 將labelme的json文件轉為voc格式
voc2annotation_txt.py 將VOC格式轉換成項目需要的格式
make_anchors.py 生成數據集的anchors文件
train_dcmyolo.py 執行訓練
export.py 導出onnx等格式的文件
predict_dcmyolo.py 推理演示
predict_onnx.pypth 轉換onnx,onnx進(jìn)行推理demo
3.準備數據
我們需要制作三個(gè)文件train.txt、val.txt、test.txt,格式如下:
data/wangzhe/JPEGImages/1.jpg 910,504,1035,633,0 1759,113,1920,383,2
data/wangzhe/JPEGImages/10.jpg 805,189,1060,570,0 1,649,273,935,2 1636,70,1823,182,2
data/wangzhe/JPEGImages/100.jpg 896,258,1254,550,3
data/wangzhe/JPEGImages/101.jpg 869,416,1059,591,0 277,295,464,407,4 1024,311,1369,640,3
文件中一張圖片為一行,一行中的每條信息以空格分隔。第一塊是圖片存放的路徑。這里我們放在項目中的data/wangzhe/JPEGImages目錄下;其余幾塊表示方框的位置和類(lèi)別,每段用逗號分成5個(gè)部分,分別代表左上x(chóng)、左上y、右下x、右下y,以及所屬類(lèi)別的索引他們屬于哪個(gè)。
如果只有圖片,沒(méi)有標簽,我們需要進(jìn)行下面的數據標注和數據格式轉換步驟。這個(gè)過(guò)程非常簡(jiǎn)單,而且是體力勞動(dòng)。
如果使用開(kāi)源數據集,我們需要自己將數據集的標注文件轉換成上述格式,不需要下面的步驟。
如果你用的是我整理的英雄聯(lián)盟手游數據,直接下載數據解壓到項目的data目錄下,就可以直接使用了,不需要下面的步驟。
1、數據標注
這一步是用來(lái)制作我們自己的數據集的。我們使用 labelme 作為標注工具。標注好后,我們使用腳本將標注文件轉成voc格式,再從voc轉成我們需要的格式。上面是labelme的下載鏈接,解壓后使用方法如下:
?。?)雙擊main.exe打開(kāi)labelme
(2) 選擇要標注的圖片目錄。這里我準備了100多張英雄聯(lián)盟的截圖,比如項目中的data/wangzhe_org/目錄。
?。?)右側會(huì )列出該文件夾下的所有圖片,選擇一張圖片,在圖片區域右擊選擇矩形
?。?)選擇一個(gè)矩形框的目標(英雄),填寫(xiě)類(lèi)別名稱(chēng),點(diǎn)擊確定完成一個(gè)目標的標注。注意:一定要選擇從左上角到右下角的邊框;在同一張圖片中標記盡可能多的目標,不要錯過(guò)它們;同一類(lèi)別的名稱(chēng)必須相同,不同類(lèi)別的名稱(chēng)不能相同;類(lèi)別名稱(chēng)使用英文(區分大小寫(xiě)),無(wú)標點(diǎn)符號。
(5)標記一張圖片后,選擇下一張圖片時(shí),會(huì )提示保存json文件,保存到默認目錄即可,不要更改目錄。
2.數據轉換格式
我們已經(jīng)得到了labelme生成的json格式的標準文件,我們需要先將其轉換成VOC格式,然后再轉換成我們需要的格式。
(1) 轉換成VOC格式
執行工程中的labelme2voc.py文件,示例如下:
'''
data/wangzhe_org/: 存放原圖片和labelme生成的json文件的目錄
data/wangzhe/:? ? ? 目標目錄
labels:? ? ? ? ? ? ?存放所有列表標簽的文件,英雄聯(lián)盟的數據集標簽文件已經(jīng)放在項目的dcmyolo/model_data/wangzhe_classes.txt文件中
'''
python labelme2voc.py data/wangzhe_org/ data/wangzhe/ --labels dcmyolo/model_data/wangzhe_classes.txt
其中,dcmyolo/model_data/wangzhe_classes.txt文件,共有3種標簽文件如下:
Hero
Solider
Tower
VOC格式有以下4個(gè)文件,Annotations存放標簽文件,AnnotationsVisualization存放用方框標注的圖片,方便我們查看,JPEGImages存放圖片,class_names.txt存放所有類(lèi)別的標簽。接下來(lái)我們將只使用 Annotations 和 JPEGImages:
?。?)轉換工程需要的格式
執行項目中的voc2annotation_txt.py文件,示例如下:
'''
classes_path: ? ????存放標簽種類(lèi)的文件
data_dir: ? ????????存數據的目錄,寫(xiě)到Annotations上一級
trainval_percent: ? 用于指定(訓練集+驗證集)與測試集的比例,默認情況下 9:1
train_percent: ? ???用于指定(訓練集+驗證集)中訓練集與驗證集的比例,默認情況下 9:1
'''
python voc2annotation_txt.py --classes_path dcmyolo/model_data/wangzhe_classes.txt --data_dir data/wangzhe/ --trainval_percent 0.95 --train_percent 0.95
至此我們已經(jīng)生成了項目需要的標簽文件,可以進(jìn)行訓練了。
4.執行力訓練
所有數據文件和配置文件的文件名和目錄都是可以自定義的,下面我會(huì )按照自己的習慣存放這些文件。

1.錨文件
文件放在dcmyolo/model_data/wangzhe_classes.txt
原來(lái)yolov5提到的改進(jìn)之一就是不需要手動(dòng)生成anchors。事實(shí)上,生成anchor的方法在訓練之前就被丟棄了。我比較習慣手動(dòng)生成anchor,也不麻煩。
anchors的作用下一篇講原理的時(shí)候會(huì )提到,現在我們只需要生成即可,使用make_anchors.py生成:
'''
txt_path: 標注文件txt
anchors_path: anchors文件txt
clusters: 聚類(lèi)的數目,一般情況下是9
input_size: 模型中圖像的輸入尺寸
'''
python make_anchors.py --txt_path data/wangzhe/train.txt --anchors_path dcmyolo/model_data/wangzhe_anchors.txt --clusters 9 --input_size 640
生成的文件 wangzhe_anchors.txt 如下所示:
25,44,30,58,37,64,50,68,42,91,55,104,71,113,62,141,91,256
2.標簽文件
文件放在dcmyolo/model_data/wangzhe_classes.txt,內容是標注三類(lèi),每行一類(lèi):
Hero
Solider
Tower
3.預訓練模型
下載好預訓練模型后,解壓放到dcmyolo/model_data/下。
預訓練模型有兩種,backbone和yolov5。Backbone只是在imagenet上預訓練的分類(lèi)模型,yolov5是在coco數據集上訓練的yolov5模型。如果同時(shí)加載了backbone和yolov5預訓練模型,backbone參數會(huì )被覆蓋。yolov5預訓練模型收錄
了一些backbone沒(méi)有的卷積層。如果fine-tuning推薦使用yolov5預訓練模型,收斂會(huì )更快。
4.訓練數據
將上述數據集解壓,放到data目錄下。
如果是自己標注的數據,將三個(gè)核心文件train.txt、val.txt、test.txt放在data/wangzhe/目錄下,同時(shí)保證這三個(gè)文件中的圖片路徑正確. 結構如下,其中ImageSets目錄為臨時(shí)目錄,不用于訓練,可以省略。
5.修改配置
所有參數的定義和注釋如下,為了節省篇幅,去掉了之前的parser.add_argument:
('--classes_path', type=str, default='dcmyolo/model_data/coco_classes.txt', help="類(lèi)別標簽文件路徑")
('--anchors_path', type=str, default='dcmyolo/model_data/coco_anchors.txt', help="anchors文件路徑")
('--train_annotation_path', type=str, default='data/coco/train.txt', help="存放訓練集圖片路徑和標簽的txt")
('--val_annotation_path', type=str, default='data/coco/val.txt', help="存放驗證圖片路徑和標簽的txt")
('--phi', type=str, default='s', help="所使用的YoloV5的版本。n、s、m、l、x")
# ---------------------------------------------------------------------#
# --backbone_model_dir參數
# 如果有backbone的預訓練模型,可以backbone預訓練模型目錄,當model_path不存在的時(shí)候不加載整個(gè)模型的權值。
# 只寫(xiě)到模型文件的上一級目錄即可,文件名會(huì )根據phi自動(dòng)計算(前提是從百度網(wǎng)盤(pán)下載的模型文件名沒(méi)改)
# ---------------------------------------------------------------------#
('--backbone_model_dir', type=str, default='dcmyolo/model_data/', help="backbone的預訓練模型,寫(xiě)到上一級目錄即可")
('--model_path', type=str, default='dcmyolo/model_data/pretrained.pth', help="yolov5預訓練模型的路徑")
('--save_period', type=int, default=10, help="多少個(gè)epoch保存一次權值")
('--save_dir', type=str, default='logs_wangzhe', help="權值與日志文件保存的文件夾")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--use_fp16', action='store_true', help="是否使用混合精度訓練")
#------------------------------------------------------------------#
# mosaic 馬賽克數據增強。
# mosaic_prob 每個(gè)step有多少概率使用mosaic數據增強,默認50%。
#
# mixup 是否使用mixup數據增強,僅在mosaic=True時(shí)有效。
# 只會(huì )對mosaic增強后的圖片進(jìn)行mixup的處理。
# mixup_prob 有多少概率在mosaic后使用mixup數據增強,默認50%。
# 總的mixup概率為mosaic_prob * mixup_prob。
#
# special_aug_ratio 參考YoloX,由于Mosaic生成的訓練圖片,遠遠脫離自然圖片的真實(shí)分布。
# 當mosaic=True時(shí),本代碼會(huì )在special_aug_ratio范圍內開(kāi)啟mosaic。
# 默認為前70%個(gè)epoch,100個(gè)世代會(huì )開(kāi)啟70個(gè)世代。
#------------------------------------------------------------------#
('--use_mosaic', action='store_true', help="是否使用馬賽克數據增強")
('--mosaic_prob', type=float, default=0.5, help="每個(gè)step有多少概率使用mosaic數據增強")
('--use_mixup', action='store_true', help="是否使用mixup數據增強,僅在mosaic=True時(shí)有效")
('--mixup_prob', type=float, default=0.5, help="有多少概率在mosaic后使用mixup數據增強")
('--special_aug_ratio', type=float, default=0.7, help="當mosaic=True時(shí),會(huì )在該范圍內開(kāi)啟mosaic")
('--epoch', type=int, default=100, help="總迭代次數")
('--batch_size', type=int, default=128, help="每批次取多少張圖片")
('--label_smoothing', type=float, default=0, help="是否開(kāi)啟標簽平滑")
('--init_lr', type=float, default=1e-2, help="初始學(xué)習率")
('--min_lr', type=float, default=1e-4, help="最小學(xué)習率")
('--optimizer_type', type=str, default="sgd", help="使用到的優(yōu)化器種類(lèi),可選的有adam、sgd")
('--momentum', type=float, default=0.937, help="優(yōu)化器內部使用到的momentum參數")
('--weight_decay', type=float, default=5e-4, help="權值衰減,可防止過(guò)擬合")
('--lr_decay_type', type=str, default="step", help="使用到的學(xué)習率下降方式,可選的有step、cos")
('--eval_flag', action='store_true', help="是否在訓練時(shí)進(jìn)行評估,評估對象為驗證集")
('--eval_period', type=int, default=10, help="代表多少個(gè)epoch評估一次")
('--num_workers', type=int, default=4, help="多少個(gè)線(xiàn)程讀取數據")
示例腳本 train_dcmyolo.sh:
for i in $(ps -ax |grep train_dcmyolo |awk '{print $1}')
do
id=`echo $i |awk -F"/" '{print $1}'`
<p>

kill -9 $id
done
nohup python -u train_dcmyolo.py \
--classes_path dcmyolo/model_data/wangzhe_classes.txt \
--anchors_path dcmyolo/model_data/coco_anchors.txt \
--train_annotation_path data/wangzhe/train.txt \
--val_annotation_path data/wangzhe/val.txt \
--save_dir logs_wangzhe \
--phi s \
--backbone_model_dir dcmyolo/model_data \
--model_path dcmyolo/model_data/yolov5_s.pth \
--input_shape 640 640 \
--batch_size 4 \
--epoch 1000 \
--save_period 100 \
> log_train_dcmyolo.log &
tail -f log_train_dcmyolo.log
</p>
6.執行力訓練
執行以下腳本進(jìn)行訓練,訓練結果會(huì )放在logs_wangzhe目錄下。
./train_dcmyolo.sh
五、執行預測
推理和預測方法都在predict_dcmyolo.py中,可以檢測圖片、檢測視頻和熱圖。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.檢測圖片
檢測圖片,示例腳本如下:
python predict_dcmyolo.py --operation_type predict_image --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt
在控制臺輸入圖片路徑,會(huì )顯示檢測結果:
2.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_dcmyolo.py --operation_type predict_video --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --video_path data/video/wangzhe1.mp4 --video_save_path_path data/video/wangzhe1_out.mp4
3.熱圖
示例腳本如下:
python predict_dcmyolo.py --operation_type heatmap --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --heatmap_save_path data/heatmap.jpg
與檢測圖片類(lèi)似,在控制臺輸入圖片路徑,即可顯示熱圖??梢郧宄乜吹郊せ顓^域,證明模型確實(shí)很好地檢測到了目標。
5.轉換onnx
將模型導出為onnx格式,有利于模型加速,便于模型部署。所有onnx相關(guān)的方法都放在predict_onnx.py中??梢詫С鰋nnx文件,檢測圖片,檢測視頻。所有參數定義如下。同樣為了節省空間,移除了parser.add_argument:
('--operation_type', type=str, default='', help="操作類(lèi)型export_onnx / predict_image / predict_video")
('--model_path', type=str, default='', help="pth模型的路徑")
('--classes_path', type=str, default='', help="分類(lèi)標簽文件")
('--anchors_path', type=str, default='', help="anchors文件")
('--onnx_path', type=str, default='', help="onnx保存路徑")
('--video_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻的路徑")
('--video_save_path', type=str, default='', help="視頻時(shí)才會(huì )用到,視頻檢測之后的保存路徑")
('--phi', type=str, default='', help="所使用的YoloV5的版本。n、s、m、l、x")
('--no_simplify', action='store_false', help="不使用onnxsim簡(jiǎn)化模型")
('--input_shape', nargs='+', type=int, default=[640, 640], help="輸入的shape大小,一定要是32的倍數")
('--append_nms', action='store_true', help="添加nms")
('--iou_threshold', type=float, default=0.3, help="兩個(gè)bbox的iou超過(guò)這個(gè)值會(huì )被認為是同一物體")
('--score_threshold', type=float, default=0.5, help="檢測物體的概率小于這個(gè)值將會(huì )被舍棄")
1.導出onnx文件
建議導出的onnx收錄
nms,這樣可以直接使用onnx輸出的結果,不需要程序進(jìn)行后期處理。加上--append_nms參數,可以讓聯(lián)通nms導出,onnx結果會(huì )報有指定的輸出路徑。示例腳本如下:
python predict_onnx.py --operation_type export_onnx --model_path dcmyolo/model_data/wangzhe_best_weights.pth --classes_path dcmyolo/model_data/wangzhe_classes.txt --anchors_path dcmyolo/model_data/coco_anchors.txt --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --append_nms
2.檢測圖片
使用onnx模型檢測圖片,示例腳本如下:
python predict_onnx.py --operation_type predict_image --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt
在控制臺輸入圖片路徑,即可顯示檢測結果??梢钥吹給nnx和pytorch的結果是一致的。
3.檢測視頻
測試視頻可以從上面的鏈接下載。示例腳本如下,檢測結果會(huì )放在指定的輸出位置:
python predict_onnx.py --operation_type predict_video --onnx_path dcmyolo/model_data/wangzhe_best_weights.onnx --classes_path dcmyolo/model_data/wangzhe_classes.txt --video_path data/video/wangzhe1.mp4 --video_save_path data/video/wangzhe1_out1.mp4
英雄聯(lián)盟YOLOv5實(shí)時(shí)檢測的功能這里簡(jiǎn)單介紹一下。下一篇我會(huì )介紹YOLOv5的實(shí)現原理。dcmyolo項目會(huì )持續維護,會(huì )增加越來(lái)越多的功能,敬請期待。
解決方案:基于web的文章管理系統(完整源碼+論文全套+教學(xué)視頻)
實(shí)現一個(gè)web文章管理系統,也就是說(shuō)可以基于瀏覽器管理各種數據信息。也可以看作是一個(gè)B/S架構的文章管理系統。系統分為前后臺,實(shí)現在線(xiàn)操作,實(shí)現文章管理系統的各項功能,實(shí)現用戶(hù)管理、登錄注冊、權限管理等功能,管理與各種文章相關(guān)的實(shí)體管理系統。
文章管理系統是采用mvc設計模式開(kāi)發(fā)的B/S架構項目,采用分層架構對項目進(jìn)行架構,分為pojo+action+service,其中pojo表示文章的各個(gè)數據庫表對應的實(shí)體系統,文章管理系統經(jīng)過(guò)詳細的需求分析和數據庫設計,設計實(shí)現了以下模塊,分別是登錄模塊,權限管理模塊,用戶(hù)管理模塊,文章管理系統信息管理模塊等。并通過(guò)java實(shí)現抽象類(lèi)
開(kāi)發(fā)環(huán)境系統需求分析及流程圖
一般來(lái)說(shuō),這類(lèi)項目的主要目的是掌握基本的web開(kāi)發(fā)知識,所以在實(shí)施文章管理系統的課程設計時(shí),需要先采集
其他文章管理系統的產(chǎn)品分析,進(jìn)行深入的數據庫web系統的設計,并基于mvc模式編寫(xiě)代碼,使用layui搭建頁(yè)面,進(jìn)而完成文章管理系統各模塊的開(kāi)發(fā)
數據庫課程設計
數據庫設計是整個(gè)文章管理系統的關(guān)鍵。合理的數據庫設計直接影響文章管理系統能否完美運行不報錯。本系統采用mysql數據庫作為數據存儲,引擎采用innoddb。文章管理系統將按照數據庫設計原則進(jìn)行數據分表設計
系統演示視頻運行截圖
基于Web的文章管理系統-登錄功能接口-網(wǎng)站實(shí)現

基于Web的文章管理系統-前臺首頁(yè)-網(wǎng)頁(yè)設計
基于Web的文章管理系統-后臺信息管理頁(yè)面-網(wǎng)頁(yè)設計
文章管理系統系統架構圖
預防措施
基于web的文章管理系統項目自帶源碼、試卷、sql數據庫、答辯ppt、期中檢查報告

登錄地址:8080/login.jsp
后臺地址:8080/admin/login.jsp
測試用戶(hù)cswork admin bishe 密碼123456
測試管理員admin密碼admin bishe
函數列表
文章管理系統系統登錄模塊,實(shí)現文章管理系統的登錄注冊功能
文章管理系統用戶(hù)管理模塊實(shí)現文章管理系統的信息管理和角色管理功能
前臺信息管理模塊,面向普通用戶(hù),實(shí)現普通用戶(hù)對文章管理系統自定義查詢(xún)的錄入和修改
超級管理員管理,實(shí)現文章管理系統系統各模塊后臺管理員管理功能,同意核心數據最佳權限管理
技巧:設計師必備能力之文章分類(lèi)法與文章聚合法介紹
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 95 次瀏覽 ? 2022-11-29 22:29
實(shí)時(shí)文章采集能力是設計師必備能力之一,今天我們將重點(diǎn)介紹兩種實(shí)時(shí)文章采集方法:文章分類(lèi)法與文章聚合法。
1、我們首先介紹兩種文章分類(lèi)法:文章分類(lèi)法與文章聚合法,在講述文章分類(lèi)法之前,我們先做一個(gè)簡(jiǎn)單的自測題:這兩類(lèi)文章分類(lèi)法有哪些區別?哪些場(chǎng)景適合使用?如果已經(jīng)有自己的文章分類(lèi)結果,請直接跳到文章分類(lèi)法部分。
2、在正式講解這兩種文章分類(lèi)法之前,我們先來(lái)了解一下互聯(lián)網(wǎng)上的自然搜索引擎算法,接下來(lái)你會(huì )發(fā)現文章分類(lèi)法會(huì )幫你省去很多力氣,如果有疑問(wèn)可以關(guān)注公眾號:曉講講,回復互聯(lián)網(wǎng)自然搜索引擎算法你將了解互聯(lián)網(wǎng)搜索算法,我們將此部分展開(kāi)講解。自然搜索引擎算法涉及了三大信息源:「社交網(wǎng)絡(luò )平臺」「第三方廣告平臺」「搜索引擎」。
這三大信息源是構成搜索引擎流量的主要來(lái)源,如何在這三大信息源中獲取我們想要的資源,我們要先有一個(gè)大致的框架,我們將接下來(lái)重點(diǎn)講解三大信息源,為何采用自然搜索引擎搜索引擎分類(lèi)的方法,因為這樣的方法可以達到更高的搜索效率。
3、以今日頭條為例,我們看看怎么在今日頭條上建立自己的文章搜索庫,了解如何在一個(gè)信息流平臺上更容易建立自己的文章搜索庫。
4、我們知道,自然搜索引擎平臺的aso算法中,最重要的組成部分就是信息流頁(yè)面位置,我們先看下如何從一個(gè)信息流頁(yè)面,獲取精準的aso排名。由于今日頭條是一個(gè)信息流平臺,所以我們先將位置進(jìn)行劃分:「低跳出率」「高點(diǎn)擊率」「高app轉化率」「精準度」、「轉化率」、「時(shí)長(cháng)」、「用戶(hù)來(lái)源」、「來(lái)源獲取成本」、「時(shí)長(cháng)成本」、「廣告點(diǎn)擊率」、「單純依靠點(diǎn)擊獲取收益」、「其他」。
在這個(gè)表格中,紅色數據是用戶(hù)獲取廣告點(diǎn)擊的成本,如果想獲取更多的廣告點(diǎn)擊,則需要付出更多的廣告點(diǎn)擊率。這里我們再舉個(gè)栗子,假設我們獲取了1000個(gè)廣告點(diǎn)擊,但我們獲取的不是我們的第一批用戶(hù),而是第0個(gè)用戶(hù)。
5、想獲取更多的第一批用戶(hù),我們需要考慮app的周轉率,因為廣告點(diǎn)擊率會(huì )影響app的周轉率,這里我們拿今日頭條來(lái)舉例,我們廣告獲取的是用戶(hù),但不會(huì )給用戶(hù)直接安裝app,
6、想保證用戶(hù)的安裝率,只有兩種可能,要么你獲取到的用戶(hù)很有可能是它們想要的,或者你獲取到的用戶(hù)很有可能是一個(gè)潛在的有價(jià)值的用戶(hù)。
7、為什么如此重要?
8、通過(guò)文章分類(lèi)法,我們找到了你想要的文章,但如果我們獲取的用戶(hù)或者文章很多,
9、那么如何在一 查看全部
技巧:設計師必備能力之文章分類(lèi)法與文章聚合法介紹
實(shí)時(shí)文章采集能力是設計師必備能力之一,今天我們將重點(diǎn)介紹兩種實(shí)時(shí)文章采集方法:文章分類(lèi)法與文章聚合法。
1、我們首先介紹兩種文章分類(lèi)法:文章分類(lèi)法與文章聚合法,在講述文章分類(lèi)法之前,我們先做一個(gè)簡(jiǎn)單的自測題:這兩類(lèi)文章分類(lèi)法有哪些區別?哪些場(chǎng)景適合使用?如果已經(jīng)有自己的文章分類(lèi)結果,請直接跳到文章分類(lèi)法部分。
2、在正式講解這兩種文章分類(lèi)法之前,我們先來(lái)了解一下互聯(lián)網(wǎng)上的自然搜索引擎算法,接下來(lái)你會(huì )發(fā)現文章分類(lèi)法會(huì )幫你省去很多力氣,如果有疑問(wèn)可以關(guān)注公眾號:曉講講,回復互聯(lián)網(wǎng)自然搜索引擎算法你將了解互聯(lián)網(wǎng)搜索算法,我們將此部分展開(kāi)講解。自然搜索引擎算法涉及了三大信息源:「社交網(wǎng)絡(luò )平臺」「第三方廣告平臺」「搜索引擎」。

這三大信息源是構成搜索引擎流量的主要來(lái)源,如何在這三大信息源中獲取我們想要的資源,我們要先有一個(gè)大致的框架,我們將接下來(lái)重點(diǎn)講解三大信息源,為何采用自然搜索引擎搜索引擎分類(lèi)的方法,因為這樣的方法可以達到更高的搜索效率。
3、以今日頭條為例,我們看看怎么在今日頭條上建立自己的文章搜索庫,了解如何在一個(gè)信息流平臺上更容易建立自己的文章搜索庫。
4、我們知道,自然搜索引擎平臺的aso算法中,最重要的組成部分就是信息流頁(yè)面位置,我們先看下如何從一個(gè)信息流頁(yè)面,獲取精準的aso排名。由于今日頭條是一個(gè)信息流平臺,所以我們先將位置進(jìn)行劃分:「低跳出率」「高點(diǎn)擊率」「高app轉化率」「精準度」、「轉化率」、「時(shí)長(cháng)」、「用戶(hù)來(lái)源」、「來(lái)源獲取成本」、「時(shí)長(cháng)成本」、「廣告點(diǎn)擊率」、「單純依靠點(diǎn)擊獲取收益」、「其他」。
在這個(gè)表格中,紅色數據是用戶(hù)獲取廣告點(diǎn)擊的成本,如果想獲取更多的廣告點(diǎn)擊,則需要付出更多的廣告點(diǎn)擊率。這里我們再舉個(gè)栗子,假設我們獲取了1000個(gè)廣告點(diǎn)擊,但我們獲取的不是我們的第一批用戶(hù),而是第0個(gè)用戶(hù)。

5、想獲取更多的第一批用戶(hù),我們需要考慮app的周轉率,因為廣告點(diǎn)擊率會(huì )影響app的周轉率,這里我們拿今日頭條來(lái)舉例,我們廣告獲取的是用戶(hù),但不會(huì )給用戶(hù)直接安裝app,
6、想保證用戶(hù)的安裝率,只有兩種可能,要么你獲取到的用戶(hù)很有可能是它們想要的,或者你獲取到的用戶(hù)很有可能是一個(gè)潛在的有價(jià)值的用戶(hù)。
7、為什么如此重要?
8、通過(guò)文章分類(lèi)法,我們找到了你想要的文章,但如果我們獲取的用戶(hù)或者文章很多,
9、那么如何在一
推薦文章:優(yōu)采云 采集的文章中html標簽在帖子中不顯示格式
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 100 次瀏覽 ? 2022-11-27 04:23
采集的文章中html標簽在帖子中不顯示格式
優(yōu)采云
采集文章中的html標簽在帖子中不顯示格式100
使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,
標簽不換行。默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。點(diǎn)擊Edit Post...使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,
標簽不換行。
默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。
點(diǎn)擊編輯帖子,編輯頁(yè)面無(wú)需人工干預,格式自動(dòng)顯示,保存后和第二張圖一樣。
請問(wèn),如何讓帖子自動(dòng)顯示html標簽的格式,而不用編輯帖子,即采集的帖子頁(yè)面會(huì )直接像第二張圖一樣?
?、屛一卮?br /> 您可以在下方選擇一個(gè)或多個(gè)關(guān)鍵詞搜索相關(guān)信息。您也可以直接點(diǎn)擊“搜索信息”搜索整題。
最新版:優(yōu)采云
采集器最新免費版
優(yōu)采云
采集器最新免費版是一款非常實(shí)用的數據采集器,基于人工智能技術(shù),可以自動(dòng)識別采集內容!界面簡(jiǎn)潔大方,符合手動(dòng)瀏覽的思維方式,任務(wù)數量不限,喜歡的內容自由導出,保存Excel、TXT格式并導出到本地,可視化操作,自定義采集流程,網(wǎng)頁(yè)數據即可輕松采集
,而且采集
網(wǎng)址數量沒(méi)有限制!
軟件特色
1、智能識別列表,鏡像下載次數不限,從文件導入url,批量生成url
2.手動(dòng)輸入url,任務(wù)數量不限,支持云存儲,以HTML格式導出到本地
3、一鍵采集數據,可模擬人的操作過(guò)程,滾動(dòng)頁(yè)面,等待加載
軟件亮點(diǎn)
1.模擬網(wǎng)頁(yè)操作順序,高級設置滿(mǎn)足更多采集
需求
2.支持多任務(wù)同時(shí)運行,切換端同步更新
3.根據軟件提示點(diǎn)擊頁(yè)面,結合條件篩選采集字段
4.問(wèn)答引導,可視化操作,數據庫發(fā)布到本地或云端服務(wù)器
軟件優(yōu)勢
1.簡(jiǎn)單步驟生成復雜采集規則,導出發(fā)布采集數據
2、自動(dòng)導出、文件下載、自動(dòng)生成復雜的數據采集規則
3、自定義采集流程,提供企業(yè)級服務(wù),可選擇提取文本、鏈接、屬性
用戶(hù)評價(jià)
根據軟件給出的提示,結合智能識別算法,操作簡(jiǎn)單,在效率上滿(mǎn)足采集要求。 查看全部
推薦文章:優(yōu)采云
采集的文章中html標簽在帖子中不顯示格式
優(yōu)采云
采集文章中的html標簽在帖子中不顯示格式100
使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,
標簽不換行。默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。點(diǎn)擊Edit Post...使用優(yōu)采云
采集
文章并發(fā)布在網(wǎng)站上,如第一張圖所示。HTML 標簽仍然以文本格式表示,

標簽不換行。
默認選中我網(wǎng)站發(fā)布選項中的 html 標記。發(fā)布者有權發(fā)布 html。
點(diǎn)擊編輯帖子,編輯頁(yè)面無(wú)需人工干預,格式自動(dòng)顯示,保存后和第二張圖一樣。
請問(wèn),如何讓帖子自動(dòng)顯示html標簽的格式,而不用編輯帖子,即采集的帖子頁(yè)面會(huì )直接像第二張圖一樣?

?、屛一卮?br /> 您可以在下方選擇一個(gè)或多個(gè)關(guān)鍵詞搜索相關(guān)信息。您也可以直接點(diǎn)擊“搜索信息”搜索整題。
最新版:優(yōu)采云
采集器最新免費版
優(yōu)采云
采集器最新免費版是一款非常實(shí)用的數據采集器,基于人工智能技術(shù),可以自動(dòng)識別采集內容!界面簡(jiǎn)潔大方,符合手動(dòng)瀏覽的思維方式,任務(wù)數量不限,喜歡的內容自由導出,保存Excel、TXT格式并導出到本地,可視化操作,自定義采集流程,網(wǎng)頁(yè)數據即可輕松采集
,而且采集
網(wǎng)址數量沒(méi)有限制!
軟件特色
1、智能識別列表,鏡像下載次數不限,從文件導入url,批量生成url
2.手動(dòng)輸入url,任務(wù)數量不限,支持云存儲,以HTML格式導出到本地
3、一鍵采集數據,可模擬人的操作過(guò)程,滾動(dòng)頁(yè)面,等待加載

軟件亮點(diǎn)
1.模擬網(wǎng)頁(yè)操作順序,高級設置滿(mǎn)足更多采集
需求
2.支持多任務(wù)同時(shí)運行,切換端同步更新
3.根據軟件提示點(diǎn)擊頁(yè)面,結合條件篩選采集字段
4.問(wèn)答引導,可視化操作,數據庫發(fā)布到本地或云端服務(wù)器

軟件優(yōu)勢
1.簡(jiǎn)單步驟生成復雜采集規則,導出發(fā)布采集數據
2、自動(dòng)導出、文件下載、自動(dòng)生成復雜的數據采集規則
3、自定義采集流程,提供企業(yè)級服務(wù),可選擇提取文本、鏈接、屬性
用戶(hù)評價(jià)
根據軟件給出的提示,結合智能識別算法,操作簡(jiǎn)單,在效率上滿(mǎn)足采集要求。
經(jīng)驗總結:總結收集日志的幾種方法
采集交流 ? 優(yōu)采云 發(fā)表了文章 ? 0 個(gè)評論 ? 85 次瀏覽 ? 2022-11-26 22:35
介紹
到目前為止,我們已經(jīng)看到采集
日志的方式有很多種。甚至,我們有很多種方法來(lái)采集
相同的日志。在今天的文章中,我將對其進(jìn)行簡(jiǎn)要回顧。
由 Filebeat 采集
Filebeat是最常用的日志采集
方式。使用Filebeat,我們還有以下方法:
按模塊采集
為了更方便的使用Filebeat采集數據,Elastic提供了模塊供使用:
我們可以使用以下命令獲取支持的模塊:
./filebeat modules list
通過(guò)模塊的使用,我們可以生成相應的ingest pipelines、dashboards、index patterns、index templates、ILM等,這些模塊是我們會(huì )經(jīng)常用到的模塊。開(kāi)箱即用的工具。
這種方法的路徑是 Filebeat => Elasticsearch。關(guān)于模塊的使用,可以參考《Beats:Beats入門(mén)教程(一)》一文。
使用Filebeat的輸入日志采集
即使是通過(guò)上面介紹的模塊方式采集
的日志,我們也可以使用這種方式來(lái)實(shí)現。但是,我們需要自己創(chuàng )建儀表板、攝取管道、索引模板、生命周期管理策略等。其實(shí)這是一種比較流行的回執采集
方式,特別是對于那些模塊不支持的自定義日志。
采集
這些數據的方式是:Filebeat => Elasticsearch。我們可以閱讀之前的文章《Beats:通過(guò)Filebeat將日志傳遞給Elasticsearch》。
完成 Filebeat 和 Logstash
我們知道Logstash可以用來(lái)清洗數據,可以使用Logstash來(lái)豐富數據和外部數據庫。另一方面,Logstash的使用提供了緩沖的作用,特別是對于產(chǎn)生大量日志的情況。
該方法采集到的路徑為:Filebeat => Logstash => Elasticsearch??梢钥次抑暗奈恼隆禠ogstash:Logstash入門(mén)教程(二)》,或者《Logstash:將Apache日志導入Elasticsearch》一文。
通過(guò) Kafaka 采集
數據
對于大量數據,Kafaka 是一種比較常見(jiàn)的解決方案。它充當緩沖區:
詳細閱讀請參考《Elastic:用Kafka部署Elastic Stack》一文。
通過(guò) Logstash 采集
在某些情況下,我們甚至可以直接使用Logstash來(lái)采集
日志數據。關(guān)于Logstash和Filebeat的區別,可以看《Beats:Elastic Beats介紹及與Logstash的比較》一文。
該方法的采集路徑為:Logstash => Elasticsearch??梢蚤喿x《Logstash:數據轉換、分析、抽取、豐富和核心操作》、《Elastic:使用Elastic Stack分析Spring Boot微服務(wù)日志(一)》兩篇文章。
通過(guò) Elastic Agent 采集
隨著(zhù)Elastic Stack的發(fā)展,Elastic在最新發(fā)布的版本中更推崇使用Elastic Agent來(lái)采集
日志。
關(guān)于使用Elastic Agent的日志采集方式,我們也分為兩類(lèi):
支持的集成
為了方便大家的使用,Elastic也提供了類(lèi)似開(kāi)箱即用模塊的解決方案。在最新版本中,我們使用提供的集成來(lái)完成日志采集
。
我們可以閱讀以下文章來(lái)理解:
自定義日志
在很多情況下,我們的日志可能不屬于 Elastic 提供的集成類(lèi)別。那么我們如何將這些日志采集
到Elasticsearch中呢?事實(shí)上,Elastic 提供了一個(gè)叫做 Custom Logs 的集成,專(zhuān)門(mén)處理這個(gè)繁瑣的需求。如果您想了解更多相關(guān)信息,請閱讀文章“可觀(guān)察性:如何使用 Elastic Agent 將自定義日志攝取到 Elasticsearch”。
直接在客戶(hù)端寫(xiě)入日志到Elasticsearch
我們也可以直接在客戶(hù)端以編程方式將日志寫(xiě)入 Elasticsearch。請閱讀文章:
使用其他非 Elastic Stack 解決方案
其實(shí)結合Elastic Stack還有很多其他的解決方案,比如:
以上,我們列舉了上面我能想到的方法。在實(shí)際使用中,開(kāi)發(fā)者可能有更多的方法。如果還有更多,請告訴我。我會(huì )把這一切寫(xiě)下來(lái)。
文末
嗨,我們來(lái)互動(dòng)吧!
喜歡這篇文章嗎?
歡迎留下你想說(shuō)的話(huà),留言100%被選中!
核心方法:SEO關(guān)鍵詞研究
關(guān)鍵詞研究可能是SEO最重要的部分,除非您知道自己關(guān)鍵詞目標是什么,否則您將無(wú)法開(kāi)始營(yíng)銷(xiāo)活動(dòng),也無(wú)法評估成本和回報,除非您知道自己在競爭什么。
開(kāi)始
關(guān)鍵詞研究是關(guān)于了解用戶(hù)在搜索信息時(shí)使用的單詞,這通常包括了解關(guān)鍵詞的搜索量以及這些單詞的競爭程度。
關(guān)鍵詞研究是搜索引擎優(yōu)化和搜索營(yíng)銷(xiāo)的關(guān)鍵部分。因為如果使用得當,他可以幫助我們在開(kāi)發(fā)網(wǎng)站和構建內容時(shí)提供路徑。根據搜索查詢(xún)的數量,關(guān)鍵詞可分為頭部、身體、長(cháng)尾。一般來(lái)說(shuō),關(guān)鍵詞的單詞越多,競爭越少,相對激烈,更容易獲得良好的排名
據說(shuō),一般來(lái)說(shuō),因為這個(gè)定律不是絕對的,所以會(huì )發(fā)生意外。下面是一些長(cháng)尾關(guān)鍵詞與主體和頭部關(guān)鍵詞的難度指數對比。
這個(gè)案例是一個(gè)長(cháng)尾關(guān)鍵詞容易競爭的點(diǎn)
在此示例中,長(cháng)尾與頭部一樣困難關(guān)鍵詞
這個(gè)例子是長(cháng)尾關(guān)鍵詞更難競爭
關(guān)鍵詞難度
數據是通過(guò)SEOmoz的關(guān)鍵詞難度工具獲得的,根據經(jīng)驗,一般包括品牌的長(cháng)尾關(guān)鍵詞更難競爭,9/10的長(cháng)尾關(guān)鍵詞一般比主體和頭部更容易關(guān)鍵詞
2 視角
SEO一般可以分為兩個(gè)目標:
獲取流量并增加轉化次數
很多SEO的壞處是過(guò)分強調獲得流量而不是轉化。這并不是說(shuō)獲得流量是錯誤的,而是關(guān)于您網(wǎng)站的目標。例如,對于電子商務(wù)網(wǎng)站來(lái)說(shuō),獲得高轉化價(jià)值的流量大于純流量。在廣告或媒體行業(yè),眼球可能更為重要,只有獲得流量才是正確的。
所以我們需要考慮:
更高的流量會(huì )直接帶來(lái)更高的收入嗎?或者,您是否想確保從具有更好轉化指標的關(guān)鍵詞獲得流量?關(guān)鍵詞的價(jià)值
根據以上兩點(diǎn),關(guān)鍵詞的值可以基于以下兩個(gè)維度:
每月搜索量、收入潛力或與競爭水平相關(guān)的轉化率
谷歌的關(guān)鍵字工具可用于查找相關(guān)的每月搜索量,但它沒(méi)有提供更多信息。AdWords? 提供了關(guān)鍵詞程度的競爭,但您需要了解這些已經(jīng)在這些關(guān)鍵詞搜索結果中排名的網(wǎng)站的權威性。chrome的Mozbar擴展名,這個(gè)工具可以給我一些詳細的數據。但對于更復雜的分析,建議使用 SerpIQ,如下圖所示
SEOmoz有一個(gè)名為關(guān)鍵字排名的報告,如下圖所示
但他沒(méi)有提供更詳細的信息,以及SerpIQ,一種提供平均競爭指數的工具。
和搜索的意圖
搜索每個(gè)位置的競爭索引
這些搜索結果網(wǎng)站的網(wǎng)頁(yè)排名
反向鏈接數量
然后是域名的年齡
研究搜索者的意圖
在優(yōu)化轉化率方面,了解目標受眾的搜索意圖至關(guān)重要。對關(guān)鍵詞進(jìn)行分類(lèi)并根據不同的渠道和來(lái)源進(jìn)行分析可以幫助我們了解用戶(hù)的搜索意圖。
開(kāi)始學(xué)習
這里會(huì )用到的工具很多,谷歌提供的谷歌關(guān)鍵詞工具一定少不了。使用此工具時(shí),請記住選擇完全匹配
以下是結果
給出這些關(guān)鍵詞的搜索量和競爭水平,然后導出,通過(guò)übersuggest獲得更多關(guān)鍵詞搜索建議
如下圖所示
這非常有用,因為它可以根據實(shí)際搜索行為捕獲與目標關(guān)鍵字相關(guān)的所有潛在排列。您現在可以向下鉆取到短語(yǔ)并選擇要添加到列表中的子關(guān)鍵字。然后單擊“獲取”按鈕生成一個(gè)允許您復制和粘貼的模態(tài)窗口。將您選擇的相關(guān)關(guān)鍵字粘貼回Google關(guān)鍵字工具并重新運行以獲取更多關(guān)鍵字數據的好處。提示:我發(fā)現當您一次輸入少于 10 個(gè)關(guān)鍵字時(shí),Google 關(guān)鍵字工具會(huì )提供更多建議關(guān)鍵字。
Wordtracker還有一個(gè)關(guān)鍵字建議工具雖然要真正從中獲得任何果汁,你需要注冊一個(gè)付費計劃:/還有各種工具可以在付費搜索和自然搜索之間提供關(guān)鍵字使用和競爭力——其中一些非常好。SEMrush–為您提供有關(guān)搜索量,平均每次點(diǎn)擊成本,競爭頁(yè)面數量,相關(guān)關(guān)鍵字,排名結果,甚至當前購買(mǎi)廣告空間的公司(單擊放大)的奇妙見(jiàn)解。
SpyFu – 提供搜索量、每天的點(diǎn)擊次數及其平均每日費用、當前對關(guān)鍵字出價(jià)的實(shí)際廣告客戶(hù)數量以及正在運行的實(shí)際 AdWord 廣告(點(diǎn)擊放大)。
– 是我快速了解風(fēng)景的最?lèi)?ài)之一。它非??焖俚兀ㄍㄟ^(guò)使用選項卡)使您可以訪(fǎng)問(wèn)有關(guān)PPC廣告,相關(guān)關(guān)鍵字短語(yǔ),付費和自然競爭對手以及我的最?lèi)?ài)的數據;拼寫(xiě)錯誤!您是否知道關(guān)鍵字研究每月估計有 110,000 次搜索!請參閱下面的儀表板屏幕截圖(單擊以放大)。
驗證重大機遇
一旦你在Excel中有一個(gè)好的列表,重要的是要了解你的大機會(huì ),或者正如我的團隊所說(shuō)的那樣;你的金票。首先,您需要通過(guò)Google趨勢運行熱門(mén)查詢(xún)來(lái)了解季節性波動(dòng)(點(diǎn)擊放大):
注意隨時(shí)間推移的平均興趣指數,因為它可能有點(diǎn)令人困惑; 這里的 100 代表有史以來(lái)最高的搜索量,它不是搜索次數的整數。所以你正在尋找的是目前的興趣并沒(méi)有完全下降,從圖表來(lái)看,關(guān)鍵詞研究的當前搜索量似乎比2010年8月下降了約50%。接下來(lái),你使用一些第三方石蕊測試來(lái)了解一個(gè)話(huà)題到底有多受歡迎,一個(gè)安全的賭注是使用世界上最受歡迎的百科全書(shū)Wikipedia.Domas Mituzashas建立了一個(gè)統計引擎來(lái)跟蹤維基百科的頁(yè)面瀏覽量。在過(guò)去的90天里,我們可以看到這個(gè)詞已經(jīng)被瀏覽了7,554次(帽子提示Glen Allsoppfor分享了這一點(diǎn))。點(diǎn)擊放大。
創(chuàng )建關(guān)鍵字評估模型
評估關(guān)鍵詞的相對機會(huì )還是很困難的。如果沒(méi)有大量的數據存儲和對競爭格局的詳細見(jiàn)解,很容易將大量時(shí)間和金錢(qián)投入到定位永遠不會(huì )帶來(lái)穩定回報的關(guān)鍵字上。為了避免這種情況,而是只關(guān)注有排名和賺錢(qián)的地方,我認為最好使用評估方法。有許多方法,從復雜的公式(包括許多不同的啟發(fā)式)到更簡(jiǎn)化的模型,旨在讓您了解機會(huì )。
雖然我正在研究我的模型的縮減版本以贈送,但它還沒(méi)有完全準備好——所以在這篇文章中,我們將使用平均簡(jiǎn)化版本。這比其他任何東西都更像是一個(gè)晴雨表,這些數據不應該用于制作商業(yè)案例,而只是為了給你一種機會(huì )感。我將使用SerpIQ的關(guān)鍵字競爭力評分,但您也可以使用SEOmoz的關(guān)鍵字難度評分或類(lèi)似的東西來(lái)做到這一點(diǎn)。對機會(huì )進(jìn)行評分需要一些簡(jiǎn)單的數學(xué)運算。
因此,對于此版本,我們將通過(guò)乘以競爭分數的反向折扣率(1減去競爭力指數百分比)來(lái)打折每月搜索量。對于這個(gè)例子,我將堅持我們的根短語(yǔ),關(guān)鍵字研究,并使用其他2個(gè)密切相關(guān)的變體:
使用我們的快速和骯臟的評估模型(確切的每月搜索量 x (1 – CI%),我們得到:關(guān)鍵字研究機會(huì )得分 (4,400 x (1-.68))= 1,408 關(guān)鍵字研究工具機會(huì )得分 (720 x (1-.
65))= 252 關(guān)鍵字研究軟件機會(huì )得分 (480 x (1-.56))= 211.2 顯示(快速記?。┘词龟P(guān)鍵字研究在競爭方面要困難得多, 在搜索流量定位關(guān)鍵字方面,它仍然是明顯的贏(yíng)家。這很有用,因為它考慮了與每月搜索量相關(guān)的機會(huì ),然后根據平均競爭對流量潛力進(jìn)行折扣。
閉環(huán)
進(jìn)行成功的關(guān)鍵字研究的一部分是每月留出時(shí)間來(lái)分析有效的方法,并相應地調整您的內容和鏈接策略。你在哪里看到SERP中最快的運動(dòng)?某些術(shù)語(yǔ)在前 10/30/50 個(gè)位置之間的移動(dòng)速度是否比其他術(shù)語(yǔ)快?哪些關(guān)鍵字最快到達第 1 頁(yè)?最快進(jìn)入前 5 名?問(wèn)自己這些問(wèn)題,請在下面的評論中與我分享您的想法——讓我知道你的假設,或者更好的是你的
實(shí)際數據;分享你的研究,告訴我什么有效,什么無(wú)效,我很想和你聊天。 查看全部
經(jīng)驗總結:總結收集日志的幾種方法
介紹
到目前為止,我們已經(jīng)看到采集
日志的方式有很多種。甚至,我們有很多種方法來(lái)采集
相同的日志。在今天的文章中,我將對其進(jìn)行簡(jiǎn)要回顧。
由 Filebeat 采集
Filebeat是最常用的日志采集
方式。使用Filebeat,我們還有以下方法:
按模塊采集
為了更方便的使用Filebeat采集數據,Elastic提供了模塊供使用:
我們可以使用以下命令獲取支持的模塊:
./filebeat modules list
通過(guò)模塊的使用,我們可以生成相應的ingest pipelines、dashboards、index patterns、index templates、ILM等,這些模塊是我們會(huì )經(jīng)常用到的模塊。開(kāi)箱即用的工具。
這種方法的路徑是 Filebeat => Elasticsearch。關(guān)于模塊的使用,可以參考《Beats:Beats入門(mén)教程(一)》一文。
使用Filebeat的輸入日志采集
即使是通過(guò)上面介紹的模塊方式采集
的日志,我們也可以使用這種方式來(lái)實(shí)現。但是,我們需要自己創(chuàng )建儀表板、攝取管道、索引模板、生命周期管理策略等。其實(shí)這是一種比較流行的回執采集
方式,特別是對于那些模塊不支持的自定義日志。

采集
這些數據的方式是:Filebeat => Elasticsearch。我們可以閱讀之前的文章《Beats:通過(guò)Filebeat將日志傳遞給Elasticsearch》。
完成 Filebeat 和 Logstash
我們知道Logstash可以用來(lái)清洗數據,可以使用Logstash來(lái)豐富數據和外部數據庫。另一方面,Logstash的使用提供了緩沖的作用,特別是對于產(chǎn)生大量日志的情況。
該方法采集到的路徑為:Filebeat => Logstash => Elasticsearch??梢钥次抑暗奈恼隆禠ogstash:Logstash入門(mén)教程(二)》,或者《Logstash:將Apache日志導入Elasticsearch》一文。
通過(guò) Kafaka 采集
數據
對于大量數據,Kafaka 是一種比較常見(jiàn)的解決方案。它充當緩沖區:
詳細閱讀請參考《Elastic:用Kafka部署Elastic Stack》一文。
通過(guò) Logstash 采集
在某些情況下,我們甚至可以直接使用Logstash來(lái)采集
日志數據。關(guān)于Logstash和Filebeat的區別,可以看《Beats:Elastic Beats介紹及與Logstash的比較》一文。
該方法的采集路徑為:Logstash => Elasticsearch??梢蚤喿x《Logstash:數據轉換、分析、抽取、豐富和核心操作》、《Elastic:使用Elastic Stack分析Spring Boot微服務(wù)日志(一)》兩篇文章。
通過(guò) Elastic Agent 采集
隨著(zhù)Elastic Stack的發(fā)展,Elastic在最新發(fā)布的版本中更推崇使用Elastic Agent來(lái)采集
日志。
關(guān)于使用Elastic Agent的日志采集方式,我們也分為兩類(lèi):

支持的集成
為了方便大家的使用,Elastic也提供了類(lèi)似開(kāi)箱即用模塊的解決方案。在最新版本中,我們使用提供的集成來(lái)完成日志采集
。
我們可以閱讀以下文章來(lái)理解:
自定義日志
在很多情況下,我們的日志可能不屬于 Elastic 提供的集成類(lèi)別。那么我們如何將這些日志采集
到Elasticsearch中呢?事實(shí)上,Elastic 提供了一個(gè)叫做 Custom Logs 的集成,專(zhuān)門(mén)處理這個(gè)繁瑣的需求。如果您想了解更多相關(guān)信息,請閱讀文章“可觀(guān)察性:如何使用 Elastic Agent 將自定義日志攝取到 Elasticsearch”。
直接在客戶(hù)端寫(xiě)入日志到Elasticsearch
我們也可以直接在客戶(hù)端以編程方式將日志寫(xiě)入 Elasticsearch。請閱讀文章:
使用其他非 Elastic Stack 解決方案
其實(shí)結合Elastic Stack還有很多其他的解決方案,比如:
以上,我們列舉了上面我能想到的方法。在實(shí)際使用中,開(kāi)發(fā)者可能有更多的方法。如果還有更多,請告訴我。我會(huì )把這一切寫(xiě)下來(lái)。
文末
嗨,我們來(lái)互動(dòng)吧!
喜歡這篇文章嗎?
歡迎留下你想說(shuō)的話(huà),留言100%被選中!
核心方法:SEO關(guān)鍵詞研究
關(guān)鍵詞研究可能是SEO最重要的部分,除非您知道自己關(guān)鍵詞目標是什么,否則您將無(wú)法開(kāi)始營(yíng)銷(xiāo)活動(dòng),也無(wú)法評估成本和回報,除非您知道自己在競爭什么。
開(kāi)始
關(guān)鍵詞研究是關(guān)于了解用戶(hù)在搜索信息時(shí)使用的單詞,這通常包括了解關(guān)鍵詞的搜索量以及這些單詞的競爭程度。
關(guān)鍵詞研究是搜索引擎優(yōu)化和搜索營(yíng)銷(xiāo)的關(guān)鍵部分。因為如果使用得當,他可以幫助我們在開(kāi)發(fā)網(wǎng)站和構建內容時(shí)提供路徑。根據搜索查詢(xún)的數量,關(guān)鍵詞可分為頭部、身體、長(cháng)尾。一般來(lái)說(shuō),關(guān)鍵詞的單詞越多,競爭越少,相對激烈,更容易獲得良好的排名
據說(shuō),一般來(lái)說(shuō),因為這個(gè)定律不是絕對的,所以會(huì )發(fā)生意外。下面是一些長(cháng)尾關(guān)鍵詞與主體和頭部關(guān)鍵詞的難度指數對比。
這個(gè)案例是一個(gè)長(cháng)尾關(guān)鍵詞容易競爭的點(diǎn)
在此示例中,長(cháng)尾與頭部一樣困難關(guān)鍵詞
這個(gè)例子是長(cháng)尾關(guān)鍵詞更難競爭
關(guān)鍵詞難度
數據是通過(guò)SEOmoz的關(guān)鍵詞難度工具獲得的,根據經(jīng)驗,一般包括品牌的長(cháng)尾關(guān)鍵詞更難競爭,9/10的長(cháng)尾關(guān)鍵詞一般比主體和頭部更容易關(guān)鍵詞
2 視角
SEO一般可以分為兩個(gè)目標:
獲取流量并增加轉化次數
很多SEO的壞處是過(guò)分強調獲得流量而不是轉化。這并不是說(shuō)獲得流量是錯誤的,而是關(guān)于您網(wǎng)站的目標。例如,對于電子商務(wù)網(wǎng)站來(lái)說(shuō),獲得高轉化價(jià)值的流量大于純流量。在廣告或媒體行業(yè),眼球可能更為重要,只有獲得流量才是正確的。
所以我們需要考慮:
更高的流量會(huì )直接帶來(lái)更高的收入嗎?或者,您是否想確保從具有更好轉化指標的關(guān)鍵詞獲得流量?關(guān)鍵詞的價(jià)值
根據以上兩點(diǎn),關(guān)鍵詞的值可以基于以下兩個(gè)維度:
每月搜索量、收入潛力或與競爭水平相關(guān)的轉化率
谷歌的關(guān)鍵字工具可用于查找相關(guān)的每月搜索量,但它沒(méi)有提供更多信息。AdWords? 提供了關(guān)鍵詞程度的競爭,但您需要了解這些已經(jīng)在這些關(guān)鍵詞搜索結果中排名的網(wǎng)站的權威性。chrome的Mozbar擴展名,這個(gè)工具可以給我一些詳細的數據。但對于更復雜的分析,建議使用 SerpIQ,如下圖所示

SEOmoz有一個(gè)名為關(guān)鍵字排名的報告,如下圖所示
但他沒(méi)有提供更詳細的信息,以及SerpIQ,一種提供平均競爭指數的工具。
和搜索的意圖
搜索每個(gè)位置的競爭索引
這些搜索結果網(wǎng)站的網(wǎng)頁(yè)排名
反向鏈接數量
然后是域名的年齡
研究搜索者的意圖
在優(yōu)化轉化率方面,了解目標受眾的搜索意圖至關(guān)重要。對關(guān)鍵詞進(jìn)行分類(lèi)并根據不同的渠道和來(lái)源進(jìn)行分析可以幫助我們了解用戶(hù)的搜索意圖。
開(kāi)始學(xué)習
這里會(huì )用到的工具很多,谷歌提供的谷歌關(guān)鍵詞工具一定少不了。使用此工具時(shí),請記住選擇完全匹配
以下是結果
給出這些關(guān)鍵詞的搜索量和競爭水平,然后導出,通過(guò)übersuggest獲得更多關(guān)鍵詞搜索建議

如下圖所示
這非常有用,因為它可以根據實(shí)際搜索行為捕獲與目標關(guān)鍵字相關(guān)的所有潛在排列。您現在可以向下鉆取到短語(yǔ)并選擇要添加到列表中的子關(guān)鍵字。然后單擊“獲取”按鈕生成一個(gè)允許您復制和粘貼的模態(tài)窗口。將您選擇的相關(guān)關(guān)鍵字粘貼回Google關(guān)鍵字工具并重新運行以獲取更多關(guān)鍵字數據的好處。提示:我發(fā)現當您一次輸入少于 10 個(gè)關(guān)鍵字時(shí),Google 關(guān)鍵字工具會(huì )提供更多建議關(guān)鍵字。
Wordtracker還有一個(gè)關(guān)鍵字建議工具雖然要真正從中獲得任何果汁,你需要注冊一個(gè)付費計劃:/還有各種工具可以在付費搜索和自然搜索之間提供關(guān)鍵字使用和競爭力——其中一些非常好。SEMrush–為您提供有關(guān)搜索量,平均每次點(diǎn)擊成本,競爭頁(yè)面數量,相關(guān)關(guān)鍵字,排名結果,甚至當前購買(mǎi)廣告空間的公司(單擊放大)的奇妙見(jiàn)解。
SpyFu – 提供搜索量、每天的點(diǎn)擊次數及其平均每日費用、當前對關(guān)鍵字出價(jià)的實(shí)際廣告客戶(hù)數量以及正在運行的實(shí)際 AdWord 廣告(點(diǎn)擊放大)。
– 是我快速了解風(fēng)景的最?lèi)?ài)之一。它非??焖俚兀ㄍㄟ^(guò)使用選項卡)使您可以訪(fǎng)問(wèn)有關(guān)PPC廣告,相關(guān)關(guān)鍵字短語(yǔ),付費和自然競爭對手以及我的最?lèi)?ài)的數據;拼寫(xiě)錯誤!您是否知道關(guān)鍵字研究每月估計有 110,000 次搜索!請參閱下面的儀表板屏幕截圖(單擊以放大)。
驗證重大機遇
一旦你在Excel中有一個(gè)好的列表,重要的是要了解你的大機會(huì ),或者正如我的團隊所說(shuō)的那樣;你的金票。首先,您需要通過(guò)Google趨勢運行熱門(mén)查詢(xún)來(lái)了解季節性波動(dòng)(點(diǎn)擊放大):
注意隨時(shí)間推移的平均興趣指數,因為它可能有點(diǎn)令人困惑; 這里的 100 代表有史以來(lái)最高的搜索量,它不是搜索次數的整數。所以你正在尋找的是目前的興趣并沒(méi)有完全下降,從圖表來(lái)看,關(guān)鍵詞研究的當前搜索量似乎比2010年8月下降了約50%。接下來(lái),你使用一些第三方石蕊測試來(lái)了解一個(gè)話(huà)題到底有多受歡迎,一個(gè)安全的賭注是使用世界上最受歡迎的百科全書(shū)Wikipedia.Domas Mituzashas建立了一個(gè)統計引擎來(lái)跟蹤維基百科的頁(yè)面瀏覽量。在過(guò)去的90天里,我們可以看到這個(gè)詞已經(jīng)被瀏覽了7,554次(帽子提示Glen Allsoppfor分享了這一點(diǎn))。點(diǎn)擊放大。
創(chuàng )建關(guān)鍵字評估模型
評估關(guān)鍵詞的相對機會(huì )還是很困難的。如果沒(méi)有大量的數據存儲和對競爭格局的詳細見(jiàn)解,很容易將大量時(shí)間和金錢(qián)投入到定位永遠不會(huì )帶來(lái)穩定回報的關(guān)鍵字上。為了避免這種情況,而是只關(guān)注有排名和賺錢(qián)的地方,我認為最好使用評估方法。有許多方法,從復雜的公式(包括許多不同的啟發(fā)式)到更簡(jiǎn)化的模型,旨在讓您了解機會(huì )。
雖然我正在研究我的模型的縮減版本以贈送,但它還沒(méi)有完全準備好——所以在這篇文章中,我們將使用平均簡(jiǎn)化版本。這比其他任何東西都更像是一個(gè)晴雨表,這些數據不應該用于制作商業(yè)案例,而只是為了給你一種機會(huì )感。我將使用SerpIQ的關(guān)鍵字競爭力評分,但您也可以使用SEOmoz的關(guān)鍵字難度評分或類(lèi)似的東西來(lái)做到這一點(diǎn)。對機會(huì )進(jìn)行評分需要一些簡(jiǎn)單的數學(xué)運算。
因此,對于此版本,我們將通過(guò)乘以競爭分數的反向折扣率(1減去競爭力指數百分比)來(lái)打折每月搜索量。對于這個(gè)例子,我將堅持我們的根短語(yǔ),關(guān)鍵字研究,并使用其他2個(gè)密切相關(guān)的變體:
使用我們的快速和骯臟的評估模型(確切的每月搜索量 x (1 – CI%),我們得到:關(guān)鍵字研究機會(huì )得分 (4,400 x (1-.68))= 1,408 關(guān)鍵字研究工具機會(huì )得分 (720 x (1-.
65))= 252 關(guān)鍵字研究軟件機會(huì )得分 (480 x (1-.56))= 211.2 顯示(快速記?。┘词龟P(guān)鍵字研究在競爭方面要困難得多, 在搜索流量定位關(guān)鍵字方面,它仍然是明顯的贏(yíng)家。這很有用,因為它考慮了與每月搜索量相關(guān)的機會(huì ),然后根據平均競爭對流量潛力進(jìn)行折扣。
閉環(huán)
進(jìn)行成功的關(guān)鍵字研究的一部分是每月留出時(shí)間來(lái)分析有效的方法,并相應地調整您的內容和鏈接策略。你在哪里看到SERP中最快的運動(dòng)?某些術(shù)語(yǔ)在前 10/30/50 個(gè)位置之間的移動(dòng)速度是否比其他術(shù)語(yǔ)快?哪些關(guān)鍵字最快到達第 1 頁(yè)?最快進(jìn)入前 5 名?問(wèn)自己這些問(wèn)題,請在下面的評論中與我分享您的想法——讓我知道你的假設,或者更好的是你的
實(shí)際數據;分享你的研究,告訴我什么有效,什么無(wú)效,我很想和你聊天。