0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

運用多種機器學(xué)習(xí)方法比較短文本分類處理過程與結(jié)果差別

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2020-11-02 15:37 ? 次閱讀

目標(biāo)

從頭開始實踐中文短文本分類,記錄一下實驗流程與遇到的坑運用多種機器學(xué)習(xí)深度學(xué)習(xí) + 傳統(tǒng)機器學(xué)習(xí))方法比較短文本分類處理過程與結(jié)果差別

工具

深度學(xué)習(xí):keras

傳統(tǒng)機器學(xué)習(xí):sklearn

參與比較的機器學(xué)習(xí)方法

CNN 、 CNN + word2vec

LSTM 、 LSTM + word2vec

MLP(多層感知機)

樸素貝葉斯

KNN

SVM

SVM + word2vec 、SVM + doc2vec

第 1-3 組屬于深度學(xué)習(xí)方法,第 4-6 組屬于傳統(tǒng)機器學(xué)習(xí)方法,第 7 組算是種深度與傳統(tǒng)合作的方法,畫風(fēng)清奇,拿來試試看看效果

源代碼、數(shù)據(jù)、word2vec模型下載

github:https://github.com/wavewangyue/text-classification

word2vec模型文件(使用百度百科文本預(yù)訓(xùn)練)下載:https://pan.baidu.com/s/13QWrN-9aayTTo0KKuAHMhw;提取碼 biwh

數(shù)據(jù)集:搜狗實驗室 搜狐新聞數(shù)據(jù) 下載地址:http://www.sogou.com/labs/resource/cs.php

先上結(jié)果

實驗結(jié)論

引入預(yù)訓(xùn)練的 word2vec 模型會給訓(xùn)練帶來好處,具體來說:(1)間接引入外部訓(xùn)練數(shù)據(jù),防止過擬合;(2)減少需要訓(xùn)練的參數(shù)個數(shù),提高訓(xùn)練效率

LSTM 需要訓(xùn)練的參數(shù)個數(shù)遠小于 CNN,但訓(xùn)練時間大于 CNN。CNN 在分類問題的表現(xiàn)上一直很好,無論是圖像還是文本;而想讓 LSTM 優(yōu)勢得到發(fā)揮,首先讓訓(xùn)練數(shù)據(jù)量得到保證

將單詞在 word2vec 中的詞向量加和求平均獲得整個句子的語義向量的方法看似 naive 有時真挺奏效,當(dāng)然僅限于短句子,長度 100 以內(nèi)應(yīng)該問題不大

機器學(xué)習(xí)方法萬千,具體選擇用什么樣的方法還是要取決于數(shù)據(jù)集的規(guī)模以及問題本身的復(fù)雜度,對于復(fù)雜程度一般的問題,看似簡單的方法有可能是墜吼地

干貨上完了,下面是實驗的具體流程

0 數(shù)據(jù)預(yù)處理

將下載的原始數(shù)據(jù)進行轉(zhuǎn)碼,然后給文本標(biāo)類別的標(biāo)簽,然后制作訓(xùn)練與測試數(shù)據(jù),然后控制文本長度,分詞,去標(biāo)點符號

哎,坑多,費事,比較麻煩

首先,搜狗實驗室提供的數(shù)據(jù)下載下來是 xml 格式,并且是 GBK (萬惡之源)編碼,需要轉(zhuǎn)成 UTF8,并整理成 json 方便處理。原始數(shù)據(jù)長這個樣:

這么大的數(shù)據(jù)量,怎么轉(zhuǎn)碼呢?先嘗試?yán)?python 先讀入數(shù)據(jù)然后轉(zhuǎn)碼再保存,可傲嬌 python 并不喜歡執(zhí)行這種語句。。。再嘗試?yán)?vim 的 :set fileencoding=utf-8,亂碼從███變成錕斤拷。。。

經(jīng)過幾次嘗試,菜雞的我只能通過文本編輯器打開,然后利用文本編輯器轉(zhuǎn)換編碼。這樣問題來了,文件大小1.6G,記事本就不提了,Notepad 和 Editplus 也都紛紛陣亡。。。

還好最后發(fā)現(xiàn)了 UltraEdit,不但可以打開,速度簡直飛起來,轉(zhuǎn)碼后再整理成的 json 長這個樣子:

UltraEdit 就是好就是秒就是呱呱叫

搜狗新聞的數(shù)據(jù)沒有直接提供分類,而是得通過新聞來源網(wǎng)址的 url 來查其對應(yīng)得分類,比如 http://gongyi.sohu.com 的 url 前綴對應(yīng)的新聞類型就是“公益類”。對著他提供的對照表查,1410000+的總數(shù)據(jù),成功標(biāo)出來的有510000+,標(biāo)不出來的新聞基本都來自 http://roll.sohu.com,這是搜狐的滾動新聞,亂七八糟大雜燴,難以確定是什么類

對成功標(biāo)出來的15個類的新聞,統(tǒng)計一下類別的分布,結(jié)果如下:

分布比較不均,第 14 類和第 15 類的新聞很少,另外第 8 類和第 11 類一個新聞也沒有

所以最后選了剩下的11個類,每個類抽2000個新聞,按4:1分成訓(xùn)練與測試,如圖

11個類分別是

對這些新聞的長度進行統(tǒng)計結(jié)果如下:

橫軸是新聞的長度,縱軸是擁有此長度的新聞數(shù)量。在長度為500字和1600字時突然兩個峰,猜測是搜狐新聞的一些長度限制???

長度0-100的放大觀察,分布還可以,說明如果基于這套數(shù)據(jù)做短文本分類,需要對原始文本進行固定長度的截取,長度 100 可能是個不錯的選擇

上一步選出來的訓(xùn)練新聞長這樣,因為考慮到新聞標(biāo)題的意義重大,這里就將新聞標(biāo)題和新聞內(nèi)容接到一起,用空格隔開,然后截取每條新聞的前 100 個字

一行是一條新聞,訓(xùn)練數(shù)據(jù)17600行,測試數(shù)據(jù)4324行。然后用jieba分詞,分詞后利用詞性標(biāo)注結(jié)果,把詞性為‘x’(字符串)的去掉,就完成了去標(biāo)點符號

jieba真是好真是秒真是呱呱叫

最后得到以下結(jié)果文件:(1)新聞文本數(shù)據(jù),每行 1 條新聞,每條新聞由若干個詞組成,詞之間以空格隔開,訓(xùn)練文本 17600 行,測試文本 4324 行;(2)新聞標(biāo)簽數(shù)據(jù),每行 1 個數(shù)字,對應(yīng)這條新聞所屬的類別編號,訓(xùn)練標(biāo)簽 17600行,測試標(biāo)簽 4324 行

1 CNN

深度學(xué)習(xí)用的 keras 工具,操作簡單易懂,模型上手飛快,居家旅行必備。keras 后端用的 Tensorflow,雖然用什么都一樣

不使用預(yù)訓(xùn)練 word2vec 模型的 CNN:

首先一些先設(shè)定一些會用到的參數(shù)

MAX_SEQUENCE_LENGTH=100#每條新聞最大長度 EMBEDDING_DIM=200#詞向量空間維度 VALIDATION_SPLIT=0.16#驗證集比例 TEST_SPLIT=0.2#測試集比例

第一步先把訓(xùn)練與測試數(shù)據(jù)放在一起提取特征,使用 keras 的 Tokenizer 來實現(xiàn),將新聞文檔處理成單詞索引序列,單詞與序號之間的對應(yīng)關(guān)系靠單詞的索引表 word_index 來記錄,這里從所有新聞中提取到 65604 個單詞,比如 [茍,國家,生死] 就變成了 [1024, 666, 233] ;然后將長度不足 100 的新聞用 0 填充(在前端填充),用 keras 的 pad_sequences 實現(xiàn);最后將標(biāo)簽處理成 one-hot 向量,比如 6 變成了 [0,0,0,0,0,0,1,0,0,0,0,0,0],用 keras 的 to_categorical 實現(xiàn)

fromkeras.preprocessing.textimportTokenizer fromkeras.preprocessing.sequenceimportpad_sequences fromkeras.utilsimportto_categorical importnumpyasnp tokenizer=Tokenizer() tokenizer.fit_on_texts(all_texts) sequences=tokenizer.texts_to_sequences(all_texts) word_index=tokenizer.word_index print('Found%suniquetokens.'%len(word_index)) data=pad_sequences(sequences,maxlen=MAX_SEQUENCE_LENGTH) labels=to_categorical(np.asarray(all_labels)) print('Shapeofdatatensor:',data.shape) print('Shapeoflabeltensor:',labels.shape)

再將處理后的新聞數(shù)據(jù)按 6.4:1.6:2 分為訓(xùn)練集,驗證集,測試集

p1=int(len(data)*(1-VALIDATION_SPLIT-TEST_SPLIT)) p2=int(len(data)*(1-TEST_SPLIT)) x_train=data[:p1] y_train=labels[:p1] x_val=data[p1:p2] y_val=labels[p1:p2] x_test=data[p2:] y_test=labels[p2:] print'traindocs:'+str(len(x_train)) print'valdocs:'+str(len(x_val)) print'testdocs:'+str(len(x_test))

然后就是搭建模型,首先是一個將文本處理成向量的 embedding 層,這樣每個新聞文檔被處理成一個 100 x 200 的二維向量,100 是每條新聞的固定長度,每一行的長度為 200 的行向量代表這個單詞在空間中的詞向量。下面通過 1 層卷積層與池化層來縮小向量長度,再加一層 Flatten 層將 2 維向量壓縮到 1 維,最后通過兩層 Dense(全連接層)將向量長度收縮到 12 上,對應(yīng)新聞分類的 12 個類(其實只有 11 個類,標(biāo)簽 0 沒有用到)。搭完收工,最后,訓(xùn)練模型,測試模型,一鼓作氣,攻下高地。

fromkeras.layersimportDense,Input,Flatten,Dropout fromkeras.layersimportConv1D,MaxPooling1D,Embedding fromkeras.modelsimportSequential model=Sequential() model.add(Embedding(len(word_index)+1,EMBEDDING_DIM,input_length=MAX_SEQUENCE_LENGTH)) model.add(Dropout(0.2)) model.add(Conv1D(250,3,padding='valid',activation='relu',strides=1)) model.add(MaxPooling1D(3)) model.add(Flatten()) model.add(Dense(EMBEDDING_DIM,activation='relu')) model.add(Dense(labels.shape[1],activation='softmax')) model.summary()

模型長這個樣子

問:這里只使用了 1 層卷積層,為什么不多加幾層?

答:新聞長度只有100個單詞,即特征只有100維,1 層卷積加池化后特征已經(jīng)縮減為 32 維,再加卷積可能就卷沒了。2 層 3 層也做過,效果都不好

問:為什么只訓(xùn)練 2 輪

答:問題比較簡單,1 輪訓(xùn)練已經(jīng)收斂,實驗表明第 2 輪訓(xùn)練基本沒什么提升

問:為什么卷積核為什么選擇 250 個?

答:因為開心

實驗結(jié)果如下

準(zhǔn)確度 0.81459521

擁有11個分類的問題達到這個準(zhǔn)確度,應(yīng)該也不錯(易滿足)。并且搜狗給的數(shù)據(jù)本來也不是很好(甩鍋)??梢钥吹皆谟?xùn)練集上的準(zhǔn)確度達到了 0.88,但是測試集上的準(zhǔn)確度只有 0.81,說明還是有些過擬合。另外,整個模型需要訓(xùn)練的參數(shù)接近 1500 萬,其中 1300 萬都是 embedding 層的參數(shù),說明如果利用 word2vec 模型替換 embedding 層,解放這 1300 萬參數(shù),肯定會讓訓(xùn)練效率得到提高

基于預(yù)訓(xùn)練的 word2vec 的 CNN :

參考資料

keras示例程序 pretrained_word_embeddings.py 代碼地址https://github.com/fchollet/keras/blob/master/examples/pretrained_word_embeddings.py

中文講解地址(在Keras模型中使用預(yù)訓(xùn)練的詞向量)http://keras-cn.readthedocs.io/en/latest/blog/word_embedding/

既然提到了 word2vec 可能會提高訓(xùn)練效率,那就用實驗驗證一下。(重點)(重點)(重點)正常的深度學(xué)習(xí)訓(xùn)練,比如上面的 CNN 模型,第一層(除去 Input 層)是一個將文本處理成向量的 embedding 層。這里為了使用預(yù)訓(xùn)練的 word2vec 來代替這個 embedding 層,就需要將 embedding 層的 1312 萬個參數(shù)用 word2vec 模型中的詞向量替換。替換后的 embedding 矩陣形狀為 65604 x 200,65604 行代表 65604 個單詞,每一行的這長度 200 的行向量對應(yīng)這個詞在 word2vec 空間中的 200 維向量。最后,設(shè)定 embedding 層的參數(shù)固定,不參加訓(xùn)練,這樣就把預(yù)訓(xùn)練的 word2vec 嵌入到了深度學(xué)習(xí)的模型之中

VECTOR_DIR='wiki.zh.vector.bin'#詞向量模型文件 fromkeras.utilsimportplot_model fromkeras.layersimportEmbedding importgensim w2v_model=gensim.models.KeyedVectors.load_word2vec_format(VECTOR_DIR,binary=True) embedding_matrix=np.zeros((len(word_index)+1,EMBEDDING_DIM)) forword,iinword_index.items(): ifunicode(word)inw2v_model: embedding_matrix[i]=np.asarray(w2v_model[unicode(word)], dtype='float32') embedding_layer=Embedding(len(word_index)+1, EMBEDDING_DIM, weights=[embedding_matrix], input_length=MAX_SEQUENCE_LENGTH, trainable=False)

模型搭建與剛才類似,就是用嵌入了 word2vec 的 embedding_layer 替換原來的 embedding 層

fromkeras.layersimportDense,Input,Flatten,Dropout fromkeras.layersimportConv1D,MaxPooling1D,Embedding fromkeras.modelsimportSequential model=Sequential() model.add(embedding_layer) model.add(Dropout(0.2)) model.add(Conv1D(250,3,padding='valid',activation='relu',strides=1)) model.add(MaxPooling1D(3)) model.add(Flatten()) model.add(Dense(EMBEDDING_DIM,activation='relu')) model.add(Dense(labels.shape[1],activation='softmax')) model.summary() #plot_model(model,to_file='model.png',show_shapes=True) model.compile(loss='categorical_crossentropy', optimizer='rmsprop', metrics=['acc']) model.fit(x_train,y_train,validation_data=(x_val,y_val),epochs=2,batch_size=128) model.save('word_vector_cnn.h5') printmodel.evaluate(x_test,y_test)

模型長相跟之前一致,實驗輸出與測試結(jié)果如下

準(zhǔn)確度 0.85336374

相比不使用 word2vec 的 cnn,過擬合的現(xiàn)象明顯減輕,使準(zhǔn)確度得到了提高。并且需要訓(xùn)練的參數(shù)大大減少了,使訓(xùn)練時間平均每輪減少 20s 左右

2 LSTM

終于到了自然語言處理界的大哥 LSTM 登場,還有點小期待

fromkeras.layersimportDense,Input,Flatten,Dropout fromkeras.layersimportLSTM,Embedding fromkeras.modelsimportSequential model=Sequential() model.add(Embedding(len(word_index)+1,EMBEDDING_DIM, input_length=MAX_SEQUENCE_LENGTH)) model.add(LSTM(200,dropout=0.2,recurrent_dropout=0.2)) model.add(Dropout(0.2)) model.add(Dense(labels.shape[1],activation='softmax')) model.summary()

模型長這樣

大哥開動!

準(zhǔn)確度 0.70627138

并沒有期待中那么美好。。。原因是這點小數(shù)據(jù)量,并沒有讓 LSTM 發(fā)揮出它的優(yōu)勢。并不能給大哥一個奔馳的草原。。。并不能讓大哥飛起來。。。另外使用 LSTM 需要訓(xùn)練的參數(shù)要比使用 CNN 少很多,但是訓(xùn)練時間是 CNN 的 2 倍。大哥表示不但飛不動,還飛的很累。。。

基于預(yù)訓(xùn)練的 word2vec 模型:

流程跟上面使用 word2vec 的 CNN 的基本一致,同樣也是用嵌入了 word2vec 的 embedding_layer 替換原始的 embedding 層

fromkeras.layersimportDense,Input,Flatten,Dropout fromkeras.layersimportLSTM,Embedding fromkeras.modelsimportSequential model=Sequential() model.add(embedding_layer) model.add(LSTM(200,dropout=0.2,recurrent_dropout=0.2)) model.add(Dropout(0.2)) model.add(Dense(labels.shape[1],activation='softmax')) model.summary()

準(zhǔn)確度 0.82736602

效果好了不少,依然存在過擬合現(xiàn)象,再一次說明了數(shù)據(jù)量對 LSTM 的重要性,使用預(yù)訓(xùn)練的 word2vec 模型等于間接增加了訓(xùn)練語料,所以在這次實驗中崩壞的不是很嚴(yán)重

LP(多層感知機)

參考資料

keras 示例程序:reuters_mlp.py

代碼地址:https://github.com/fchollet/keras/blob/master/examples/reuters_mlp.py

MLP 是一個結(jié)構(gòu)上很簡單很 naive 的神經(jīng)網(wǎng)絡(luò)。數(shù)據(jù)的處理流程也跟上面兩個實驗差不多,不過不再將每條新聞處理成 100 x 200 的 2 維向量,而是成為長度 65604 的 1 維向量。65604 代表數(shù)據(jù)集中所有出現(xiàn)的 65604 個單詞,數(shù)據(jù)的值用 tf-idf 值填充,整個文檔集成為一個用 17600 x 65604 個 tf-idf 值填充的矩陣,第 i 行 j 列的值表征了第 j 個單詞在第 i 個文檔中的的 tf-idf值(當(dāng)然這里也可以不用 tf-idf 值,而只是使用 0/1 值填充, 0/1 代表第 j 個單詞在第 i 個文檔中是否出現(xiàn),但是實驗顯示用 tf-idf 的效果更好)

tokenizer=Tokenizer() tokenizer.fit_on_texts(all_texts) sequences=tokenizer.texts_to_sequences(all_texts) word_index=tokenizer.word_index print('Found%suniquetokens.'%len(word_index)) data=tokenizer.sequences_to_matrix(sequences,mode='tfidf') labels=to_categorical(np.asarray(all_labels))

模型很簡單,僅有兩個全連接層組成,將長度 65604 的 1 維向量經(jīng)過 2 次壓縮成為長度 12 的 1 維向量

fromkeras.layersimportDense,Dropout fromkeras.modelsimportSequential model=Sequential() model.add(Dense(512,input_shape=(len(word_index)+1,),activation='relu')) model.add(Dropout(0.2)) model.add(Dense(labels.shape[1],activation='softmax')) model.summary()

準(zhǔn)確度 0.86066135

相比 CNN 與 LSTM 的最好成績,雖然簡單,但是依然 NB

只是不能像 CNN 與 LSTM 那樣借助預(yù)訓(xùn)練 word2vec 的幫助,加上數(shù)據(jù)量不大,所以稍微有些過擬合,不過結(jié)果依舊很不錯。沒有復(fù)雜的 embedding,清新脫俗的傳統(tǒng)感知機模型在這種小數(shù)據(jù)集的簡單問題上表現(xiàn)非常好(雖然訓(xùn)練參數(shù)已經(jīng)達到了 3300 萬個,單輪耗時也將近 200s 了)

4 樸素貝葉斯

非深度學(xué)習(xí)方法這里使用 sklearn 來實踐

首先登場的是樸素貝葉斯。數(shù)據(jù)處理的過程跟上述的 MLP 是一致的,也是將整個文檔集用 tf-idf 值填充,讓整個文檔集成為一個 17600 x 65604 的 tf-idf 矩陣。這里需要使用 sklearn 的 CountVectorizer 與 TfidfTransformer 函數(shù)實現(xiàn)。代碼如下

fromsklearn.feature_extraction.textimportCountVectorizer,TfidfTransformer count_v0=CountVectorizer(); counts_all=count_v0.fit_transform(all_text); count_v1=CountVectorizer(vocabulary=count_v0.vocabulary_); counts_train=count_v1.fit_transform(train_texts); print"theshapeoftrainis"+repr(counts_train.shape) count_v2=CountVectorizer(vocabulary=count_v0.vocabulary_); counts_test=count_v2.fit_transform(test_texts); print"theshapeoftestis"+repr(counts_test.shape) tfidftransformer=TfidfTransformer(); train_data=tfidftransformer.fit(counts_train).transform(counts_train); test_data=tfidftransformer.fit(counts_test).transform(counts_test);

這里有一個需要注意的地方,由于訓(xùn)練集和測試集分開提取特征會導(dǎo)致兩者的特征空間不同,比如訓(xùn)練集里 “茍” 這個單詞的序號是 1024,但是在測試集里序號就不同了,或者根本就不存在在測試集里。所以這里先用所有文檔共同提取特征(counts_v0),然后利用得到的詞典(counts_v0.vocabulary_)再分別給訓(xùn)練集和測試集提取特征。然后開始訓(xùn)練與測試

fromsklearn.naive_bayesimportMultinomialNB fromsklearnimportmetrics clf=MultinomialNB(alpha=0.01) clf.fit(x_train,y_train); preds=clf.predict(x_test); num=0 preds=preds.tolist() fori,predinenumerate(preds): ifint(pred)==int(y_test[i]): num+=1 print'precision_score:'+str(float(num)/len(preds))

準(zhǔn)確度 0.85430157

這只是一個簡單的樸素貝葉斯方法,準(zhǔn)確度高到驚人,果然最簡單的有時候就是最有效的

5 KNN

跟上面基本一致,只是將 MultinomialNB 函數(shù)變成 KNeighborsClassifier 函數(shù),直接上結(jié)果

fromsklearn.neighborsimportKNeighborsClassifier forxinrange(1,15): knnclf=KNeighborsClassifier(n_neighbors=x) knnclf.fit(x_train,y_train) preds=knnclf.predict(x_test); num=0 preds=preds.tolist() fori,predinenumerate(preds): ifint(pred)==int(y_test[i]): num+=1 print'K='+str(x)+',precision_score:'+str(float(num)/len(preds))

K=11時,準(zhǔn)確度 0.31961147,非常低,說明 KNN 方法不太適合做此類問題

6 SVM

這里 svm 的 kernel 選用了線性核,其他的比如多項式核和高斯核也都試過,效果極差,直接上結(jié)果

fromsklearn.svmimportSVC svclf=SVC(kernel='linear') svclf.fit(x_train,y_train) preds=svclf.predict(x_test); num=0 preds=preds.tolist() fori,predinenumerate(preds): ifint(pred)==int(y_test[i]): num+=1 print'precision_score:'+str(float(num)/len(preds))

準(zhǔn)確度 0.84435708,還是不錯的,超過 LSTM ,不及 CNN 與 MLP

7 SVM + word2vec 與 doc2vec

這兩個實驗是后期新加入的,畫風(fēng)比較清奇,是騾是馬溜一圈,就決定拿過來做個實驗一起比較一下

svm + word2vec:

這個實驗的主要思想是這樣:原本每條新聞由若干個詞組成,每個詞在 word2vec 中都有由一個長度 200 的詞向量表示,且這個詞向量的位置是與詞的語義相關(guān)聯(lián)的。那么對于每一條新聞,將這條新聞中所有的詞的詞向量加和取平均,既能保留句子中所有單詞的語義,又能生成一個蘊含著這句話的綜合語義的“句向量”,再基于這個長度 200 的句向量使用 svm 分類。這個思想看起來很 naive,但是又說不出什么不合理的地方。嘗試一下,代碼與結(jié)果如下:

importgensim importnumpyasnp w2v_model=gensim.models.KeyedVectors.load_word2vec_format(VECTOR_DIR,binary=True) x_train=[] x_test=[] fortrain_docintrain_docs: words=train_doc.split('') vector=np.zeros(EMBEDDING_DIM) word_num=0 forwordinwords: ifunicode(word)inw2v_model: vector+=w2v_model[unicode(word)] word_num+=1 ifword_num>0: vector=vector/word_num x_train.append(vector) fortest_docintest_docs: words=test_doc.split('') vector=np.zeros(EMBEDDING_DIM) word_num=0 forwordinwords: ifunicode(word)inw2v_model: vector+=w2v_model[unicode(word)] word_num+=1 ifword_num>0: vector=vector/word_num x_test.append(vector)

準(zhǔn)確度 0.85175763,驚了,這種看似很 naive 的方法竟然取得了非常好的效果。相比于之前所有包括 CNN、LSTM、MLP、SVM 等方法,這種方法有很強的優(yōu)勢。它不需要特征提取的過程,也不需固定新聞的長度,一個模型訓(xùn)練好,跨著數(shù)據(jù)集都能跑。但是也有其缺陷一面,比如忽略詞語的前后關(guān)系,并且當(dāng)句子長度較長時,求和取平均已經(jīng)無法準(zhǔn)確保留語義信息了。但是在短文本分類上的表現(xiàn)還是很亮

svm + doc2vec:

上面 svm + word2vec 的實驗提到當(dāng)句子很長時,簡單求和取平均已經(jīng)不能保證原來的語義信息了。偶然發(fā)現(xiàn)了 gensim 提供了一個 doc2vec 的模型,直接為文檔量身訓(xùn)練“句向量”,神奇。具體原理不講了(也不是很懂),直接給出使用方法

importgensim sentences=gensim.models.doc2vec.TaggedLineDocument('all_contents.txt') model=gensim.models.Doc2Vec(sentences,size=200,window=5,min_count=5) model.save('doc2vec.model') print'numofdocs:'+str(len(model.docvecs))

all_contents.txt 里是包括訓(xùn)練文檔與測試文檔在內(nèi)的所有數(shù)據(jù),同樣每行 1 條新聞,由若干個詞組成,詞之間用空格隔開,先使用 gensim 的 TaggedLineDocument 函數(shù)預(yù)處理下,然后直接使用 Doc2Vec 函數(shù)開始訓(xùn)練,訓(xùn)練過程很快(可能因為數(shù)據(jù)少)。然后這所有 21924 篇新聞就變成了 21924 個長度 200 的向量,取出前 17600 個給 SVM 做分類訓(xùn)練,后 4324 個測試,代碼和結(jié)果如下:

importgensim model=gensim.models.Doc2Vec.load('doc2vec.model') x_train=[] x_test=[] y_train=train_labels y_test=test_labels foridx,docvecinenumerate(model.docvecs): ifidx

準(zhǔn)確度 0.48126734,慘不忍睹。原因可能就是文檔太短,每個文檔只有不超過 100 個詞,導(dǎo)致對“句向量”的學(xué)習(xí)不準(zhǔn)確,word2vec 模型訓(xùn)練需要 1G 以上的數(shù)據(jù)量,這里訓(xùn)練 doc2vec 模型20000個文檔卻只有 5M 的大小,所以崩壞

另外!這里對 doc2vec 的應(yīng)用場景有一些疑問,如果我新加入一條新聞想要分類,那么我必須先要把這個新聞加到文檔集里,然后重新對文檔集進行 doc2vec 的訓(xùn)練,得到這個新新聞的文檔向量,然后由于文檔向量模型變了, svm 分類模型應(yīng)該也需要重新訓(xùn)練了。所以需要自底向上把所有模型打破重建才能讓為新文檔分類?那實用性很差啊。也可能我理解有誤,希望是這樣

總結(jié)

總結(jié)放在開頭了

打完收工

責(zé)任編輯:xj

原文標(biāo)題:新聞上的文本分類:機器學(xué)習(xí)大亂斗

文章出處:【微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8418

    瀏覽量

    132646
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5503

    瀏覽量

    121169
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    352

    瀏覽量

    22215

原文標(biāo)題:新聞上的文本分類:機器學(xué)習(xí)大亂斗

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    如何使用自然語言處理分析文本數(shù)據(jù)

    使用自然語言處理(NLP)分析文本數(shù)據(jù)是一個復(fù)雜但系統(tǒng)的過程,涉及多個步驟和技術(shù)。以下是一個基本的流程,幫助你理解如何使用NLP來分析文本數(shù)據(jù): 1. 數(shù)據(jù)收集 收集
    的頭像 發(fā)表于 12-05 15:27 ?281次閱讀

    什么是機器學(xué)習(xí)?通過機器學(xué)習(xí)方法能解決哪些問題?

    來源:Master編程樹“機器學(xué)習(xí)”最初的研究動機是讓計算機系統(tǒng)具有人的學(xué)習(xí)能力以便實現(xiàn)人工智能。因為沒有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的
    的頭像 發(fā)表于 11-16 01:07 ?407次閱讀
    什么是<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>?通過<b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)方法</b>能解決哪些問題?

    使用LLM進行自然語言處理的優(yōu)缺點

    語言任務(wù),如文本分類、情感分析、機器翻譯等。以下是使用LLM進行NLP的一些優(yōu)缺點: 優(yōu)點 強大的語言理解能力 : LLM通過訓(xùn)練學(xué)習(xí)了大量的語言模式和結(jié)構(gòu),能夠理解和生成自然語言文本
    的頭像 發(fā)表于 11-08 09:27 ?458次閱讀

    雷達的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達的基本分類方法.pdf》資料免費下載
    發(fā)表于 09-11 09:09 ?6次下載

    【《時間序列與機器學(xué)習(xí)》閱讀體驗】+ 了解時間序列

    學(xué)習(xí)方法對該序列數(shù)據(jù)進行分析,可以得到結(jié)論或預(yù)測估計,因此時間序列分析的用途是非常多的,比如: 可以反映社會經(jīng)濟現(xiàn)象的發(fā)展變化過程,描述現(xiàn)象的發(fā)展?fàn)顟B(tài)和結(jié)果。 可以研究社會經(jīng)濟現(xiàn)象的發(fā)展趨勢和發(fā)展速度
    發(fā)表于 08-11 17:55

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    講解,包括偏置、權(quán)重、激活函數(shù);三要素包括網(wǎng)絡(luò)結(jié)構(gòu)、損失函數(shù)和優(yōu)化方法。章節(jié)最后總結(jié)了神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)的關(guān)鍵步驟。 1.4章節(jié)描述了自然語言處理的相關(guān)知識點,包括什么是自然語言處理、
    發(fā)表于 07-25 14:33

    利用TensorFlow實現(xiàn)基于深度神經(jīng)網(wǎng)絡(luò)的文本分類模型

    要利用TensorFlow實現(xiàn)一個基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的文本分類模型,我們首先需要明確幾個關(guān)鍵步驟:數(shù)據(jù)預(yù)處理、模型構(gòu)建、模型訓(xùn)練、模型評估與調(diào)優(yōu),以及最終的模型部署(盡管在本文中,我們將重點放在前四個步驟上)。下面,我將詳細闡述這些步驟,并給出一個具體的示例。
    的頭像 發(fā)表于 07-12 16:39 ?859次閱讀

    深度學(xué)習(xí)中的時間序列分類方法

    時間序列分類(Time Series Classification, TSC)是機器學(xué)習(xí)和深度學(xué)習(xí)領(lǐng)域的重要任務(wù)之一,廣泛應(yīng)用于人體活動識別、系統(tǒng)監(jiān)測、金融預(yù)測、醫(yī)療診斷等多個領(lǐng)域。隨
    的頭像 發(fā)表于 07-09 15:54 ?921次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機器學(xué)習(xí)領(lǐng)域的一個重要分支,近年來在多個領(lǐng)域取得了顯著的成果,特別是在圖像識別、語音識別、自然語言處理等領(lǐng)域。然而,深度學(xué)習(xí)模型
    的頭像 發(fā)表于 07-09 10:50 ?735次閱讀

    自然語言處理過程的五個層次

    自然語言處理(NLP)的五個層次: 詞法分析(Lexical Analysis): 詞法分析是NLP的第一步,它涉及將文本分解為基本單位,通常是單詞或標(biāo)記。 詞法分析的目的是識別文本中的詞匯
    的頭像 發(fā)表于 07-03 14:27 ?626次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域的應(yīng)用

    在自然語言處理(NLP)領(lǐng)域,文本分類一直是一個重要的研究方向。隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)在圖像識別領(lǐng)域取得了
    的頭像 發(fā)表于 07-01 16:25 ?729次閱讀

    基于神經(jīng)網(wǎng)絡(luò)的呼吸音分類算法

    出的方法與其他機器學(xué)習(xí)模型在不同情況下的性能和魯棒性進行比較。1.用于初始模型檢查的簡單噪聲二值分類實驗。2.使用個體呼吸周期作為輸入的4類
    發(fā)表于 05-31 12:05

    一種利用光電容積描記(PPG)信號和深度學(xué)習(xí)模型對高血壓分類的新方法

    學(xué)習(xí)方法來對高血壓的四個階段進行分類。這里采用的分類方法是:Alexnet、Resnet -50、VGG-16和新的模型:AvgPool_VGG-16。使用這些算法時要考慮到數(shù)據(jù)集的數(shù)
    發(fā)表于 05-11 20:01

    機器學(xué)習(xí)8大調(diào)參技巧

    今天給大家一篇關(guān)于機器學(xué)習(xí)調(diào)參技巧的文章。超參數(shù)調(diào)優(yōu)是機器學(xué)習(xí)例程中的基本步驟之一。該方法也稱為超參數(shù)優(yōu)化,需要搜索超參數(shù)的最佳配置以實現(xiàn)最
    的頭像 發(fā)表于 03-23 08:26 ?624次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>8大調(diào)參技巧

    請問初學(xué)者要怎么快速掌握FPGA的學(xué)習(xí)方法?

    對于初學(xué)者 FPGA的編程語言是什么? FPGA芯片的基礎(chǔ)結(jié)構(gòu)也不了解. FPGA開發(fā)工具的名稱和使用方法都不知道. 要學(xué)的很多啊,請問有什么自學(xué)的學(xué)習(xí)方法么?
    發(fā)表于 01-02 23:01