歡迎來到《每周NLP論文推薦》。在這個專欄里,還是本著有三AI一貫的原則,專注于讓大家能夠系統性完成學習,所以我們推薦的文章也必定是同一主題的。 語義匹配也是NLP中比較基礎的任務,它的主要目標是計算兩個querry、兩個文本之間的關系,包括相似度、問答關系等。在搜索引擎、智能問答、知識檢索、信息流推薦等系統中都有應用。 作者&編輯 | 小Dream哥 1 最早的深度語義匹配模型-DSSM Deep Structured Semantic Models(DSMM)的原理很簡單,通過搜索引擎里 Query 和 Title 的海量的點擊曝光日志,用 DNN 把 Query 和 Title 表達為低維語義向量,并通過 cosine 距離來計算兩個語義向量的距離,最終訓練出語義相似度模型。該模型既可以用來預測兩個句子的語義相似度,又可以獲得某句子的低維語義向量表達。 DSSM采用詞袋模型(BOW),因此喪失了語序信息和上下文信息。另一方面,DSSM 采用弱監督、端到端的模型,預測結果不可控。 文章引用量:300+ 推薦指數:????? [1] Huang P S , He X , Gao J , et al. Learning deep structured semantic models for web search using clickthrough data[C]// Proceedings of the 22nd ACM international conference on Conference on information & knowledge management. ACM, 2013. 2 卷積用在語義匹配上-CLSM 針對DSSM詞袋模型丟失上下文信息的缺點,CLSM(convolutional latent semantic model)應運而生,又叫 CNN-DSSM。CNN-DSSM 與 DSSM 的區別主要在于輸入層和表示層。 文章引用量:140+ 推薦指數:????? [2] Shen Y , He X , Gao J , et al. [ACM Press the 23rd ACM International Conference - Shanghai, China (2014.11.03-2014.11.07)] Proceedings of the 23rd ACM International Conference on Conference on Information and Knowledge Management - CIKM \"14 - A Latent Semantic Model with Convolutional-Pooling Structure for Information Retrieval[J]. 2014:101-110. 3 LSTM用在語義匹配上 針對 CNN-DSSM無法捕獲較遠距離上下文特征的缺點,有人提出了用LSTM-DSSM來解決該問題。 文章引用量:較少 推薦指數:????? [3] Palangi H , Deng L , Shen Y , et al. Semantic Modelling with Long-Short-Term Memory for Information Retrieval[J]. Computer Science, 2014. 4 MV-DSSM MV learning是指從不共享特征空間的多個domain中學習模型。MVDNN可以通過滲透多domain的數據來學習到更好的用戶表征。 基于Multi-View的DSSM參數變多了,由于多視角的訓練,輸入的語料也可以變得不同,自由度也更大了,但是隨之帶來的問題就是訓練會變得越來越困難。 文章引用量:較少 推薦指數:????? [4] Elkahky A M , Song Y , He X . A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems[C]// the 24th International Conference. International World Wide Web Conferences Steering Committee, 2015. 5 基于字符特征的語義匹配 研究了基于字符和字符特征與基于詞向量進行語義匹配任務的差異,觀點挺新穎,可以一看。 文章引用量:較少 推薦指數:????? [5] Wuwei Lan, Wei Xu. Character-based Neural Networks for Sentence Pair Modeling. arXiv preprint arXiv:1805.08297v1, 2018. 6 基于BERT的語義相似度計算與匹配 基于BERT及其他預訓練模型進行語義相似度計算是一種趨勢,這篇文章只是做了一個簡要的介紹,實在找不到更好的文章了。有的同學請推薦呀。 文章引用量:較少 推薦指數:????? [6] Manish Patel. TinySearch- Semantics based Search Engine using Bert Embeddings. 2019. 7 ResNet寬度問題 一篇綜述性的文章,介紹了多種用于語義計算的深度學習模型,并進行了比較,值得一讀。 文章引用量:較少 推薦指數:????? [7] Zagoruyko S, Komodakis N. Neural Network Models for Paraphrase Identifification, Semantic Textual Similarity, Natural Language Inference, and Question Answering. arXiv:1806.04330v2, 2019. 8 非常好的工具MatchZOO 語義匹配非常好的開源工具,這篇文章介紹了如何利用這個工具進行訓練,快速獲得一個效果較好的模型。 文章引用量:較少 推薦指數:????? [8] Jiafeng Guo, Yixing Fan, Xiang Ji, et al. MatchZoo: A Learning, Practicing, and Developing System for Neural Text Matching. arXiv:1905.10289v2. 9 如何獲取文章與交流 找到有三AI開源項目即可獲取。 https://github.com/longpeng2008/yousan.ai 文章細節眾多,閱讀交流在有三AI-NLP知識星球中進行,感興趣可以加入。 以上就是NLP中語義匹配任務一些比較代表性的文章,下一期我們將介紹一些對話系統的文章。 有三AI夏季劃 有三AI夏季劃進行中,歡迎了解并加入,系統性成長為中級CV算法工程師。 轉載文章請后臺聯系 侵權必究 ![]() ![]() |
|