节点文献

自然语言处理预训练模型专题导读

Pre-Trained Models for Natural Language Processing Editorial

  • 推荐 CAJ下载
  • PDF下载
  • 不支持迅雷等下载工具,请取消加速工具后下载。

【作者】 郑纬民

【Author】 ZHENG Weimin;

【机构】 清华大学计算机系中国工程院

【摘要】 <正>近年来,预训练语言模型的出现给自然语言处理领域带来了一场变革,成为人工智能技术发展的前沿和热点。大规模预训练可以有效缓解传统技术在特征工程方面面临的压力。通过学习通用语言表示,模型具备了语言理解和生成能力,几乎在所有自然语言处理任务上都取得了突破。因此,各类基准测试任务的效果显著提高,这展示了大规模预训练广阔的应用前景。

  • 【文献出处】 中兴通讯技术 ,ZTE Technology Journal , 编辑部邮箱 ,2022年02期
  • 【分类号】TP391.1
  • 【下载频次】367
节点文献中: 

本文链接的文献网络图示:

本文的引文网络