文章自動(dòng)采集和發(fā)布(官方示例圖模型架構可視化,你值得擁有?。ㄉ希?
優(yōu)采云 發(fā)布時(shí)間: 2022-03-12 19:06文章自動(dòng)采集和發(fā)布(官方示例圖模型架構可視化,你值得擁有?。ㄉ希?
文章自動(dòng)采集和發(fā)布分別采用了工具superrecord和openai團隊開(kāi)發(fā)的lastflow。自動(dòng)編輯摘要和大多數摘要系統類(lèi)似,也是通過(guò)特征提取->分詞->詞向量->詞向量向量類(lèi)似的過(guò)程實(shí)現。但由于詞向量維度有限,常用的詞向量方案有加權和word2vec。對于這種模型,為了滿(mǎn)足更高維度的詞向量,還要對數據做特征變換,導致結果損失不小。
openai團隊很好的提出了一種有效的詞向量解決方案。那就是real-timewordvectorgenerationfromdata,中文就是實(shí)時(shí)詞向量。它提出了一個(gè)完全基于tensorflow的word2vec實(shí)現,其他工具只是沿用了它的改進(jìn)。官方示例這個(gè)模型可以讓你在windows和linux下訓練和測試它,可以完全免費開(kāi)源,并且保持了level-2的all-over-every-computer-or-computingsystem-debug。
官方示例圖模型架構可視化如下圖所示,以非常簡(jiǎn)單的方式實(shí)現了詞向量,同時(shí)可以使用lstmnetwork來(lái)訓練。以下是實(shí)驗結果展示,我們把word2vec的訓練時(shí)間平均分配給訓練lstmnetwork的時(shí)間。訓練平均花費了10分鐘不到。訓練不到一小時(shí)。所以,如果你需要訓練這個(gè)模型,還是值得試一試的。機器學(xué)習qq群:144441514:吳恩達機器學(xué)習機器學(xué)習qq群:144441514:吳恩達機器學(xué)習。


