节点文献

基于LDA模型的文本分割

Text Segmentation Based on Model LDA

  • 推荐 CAJ下载
  • PDF下载
  • 不支持迅雷等下载工具,请取消加速工具后下载。

【作者】 石晶胡明石鑫戴国忠

【Author】 SHI Jing1) HU Ming1) SHI Xin2) DAI Guo-Zhong3)1)(School of Computer Science and Engineering,Changchun University of Technology,Changchun 130012)2)(Institute of Chemistry for Functionalized Materials,Liaoning Normal University,Dalian,Liaoning 116029)3)(Computer Human Interaction and Intelligent Information Processing Laboratory,Institute of Software,Chinese Academy of Sciences,Beijing 100190)

【机构】 长春工业大学计算机科学与工程学院辽宁师范大学功能材料化学研究所中国科学院软件研究所人机交互技术与智能信息处理实验室

【摘要】 文本分割在信息提取、文摘自动生成、语言建模、首语消解等诸多领域都有极为重要的应用.基于LDA模型的文本分割以LDA为语料库及文本建模,利用MCMC中的Gibbs抽样进行推理,间接计算模型参数,获取词汇的概率分布,使隐藏于片段内的不同主题与文本表面的字词建立联系.实验以汉语的整句作为基本块,尝试多种相似性度量手段及边界估计策略,其最佳结果表明二者的恰当结合可以使片段边界的识别错误率远远低于其它同类算法.

【Abstract】 Text segmentation is very important for many fields including information retrieval,summarization,language modeling,anaphora resolution and so on.Text segmentation based on LDA models corpora and texts with LDA.Parameters are estimated with Gibbs sampling of MCMC and the word probability is represented.Different latent topics are associated with observable words.In the experiments,Chinese whole sentences are taken as elementary blocks.Variety of similarity metrics and several approaches of discovering boundaries are tried.The best results show the right combination of them can make the error rate far lower than other algorithms of text segmentation.

【基金】 国家“九七三”重点基础研究发展规划项目基金(2002CB312103);国家自然科学基金(60503054);中国科学院软件研究所创新工程重大项目资助~~
  • 【文献出处】 计算机学报 ,Chinese Journal of Computers , 编辑部邮箱 ,2008年10期
  • 【分类号】TP301
  • 【被引频次】170
  • 【下载频次】2616
节点文献中: 

本文链接的文献网络图示:

本文的引文网络