本港台开奖现场直播 j2开奖直播报码现场
当前位置: 新闻频道 > IT新闻 >

报码:【j2开奖】一周论文 | 文本摘要(2)

时间:2016-11-05 19:23来源:天下彩论坛 作者:j2开奖直播 点击:
该工作为在第一篇文章基础上的改进工作,做了大量的实验,非常扎实。文章提出的feature-rich encoder对其他工作也有参考意义,即将传统方法中的特征显式

  该工作为在第一篇文章基础上的改进工作,做了大量的实验,非常扎实。文章提出的feature-rich encoder对其他工作也有参考意义,即将传统方法中的特征显式地作为神经网络的输入,提高了效果。

  3、Neural Summarization by Extracting Sentences and Words作者

  Cheng, Jianpeng, and Mirella Lapata.

  单位

  University of Edinburgh

  关键词

  Extractive Summarization, Neural Attention

  文章来源

  ACL 2016

  问题

  使用神经网络进行抽取式摘要,分别为句子抽取和单词抽取。

  模型

  

报码:【j2开奖】一周论文 | 文本摘要

  句子抽取

  由于该工作为文档的摘要,故其使用了两层encoder,分别为:

词级别的encoder,基于CNN。即对句子做卷积再做max pooling从而获得句子的表示。

句子级别的encoder,基于RNN。将句子的表示作为输入,即获得文档的表示。

  由于是抽取式摘要,其使用了一个RNN decoder,但其作用并非生成,而是用作sequence labeling,对输入的句子判断是否进行抽取,类似于pointer network。

  词的抽取

  对于词的抽取,该模型同样适用了hierarchical attention。与句子抽取不同,词的抽取更类似于生成,只是将输入文档的单词作为decoder的词表。

  数据

  从DailyMail news中根据其highlight构建抽取式摘要数据集。

  简评

  该工作的特别之处在于对attention机制的使用。该paper之前的许多工作中的attention机制都与Bahdanau的工作相同,即用attention对某些向量求weighted sum。而该工作则直接使用attention的分数进行对文档中句子进行选择,实际上与pointer networks意思相近。

  4、AttSum: Joint Learning of Focusing and Summarization with Neural Attention作者

  Cao, Ziqiang, et al.

  单位

  The Hong Kong Polytechnic University, Peking University, Microsoft Research

  关键词

  Query-focused Summarization

  文章来源

  COLING 2016

  问题

  Query-focused多文档抽取式摘要

  模型

  

报码:【j2开奖】一周论文 | 文本摘要

  由于该任务为针对某个query抽取出可以回答该query的摘要,模型使用了attention机制对句子进行加权,加权的依据为文档句子对query的相关性(基于attention),从而对句子ranking,进而抽取出摘要。具体地:

使用CNN对句子进行encoding

利用query,对句子表示进行weighted sum pooling。

使用cosine similarity对句子排序。

数据

  DUC 2005 ? 2007 query-focused summarization benchmark datasets

  简评

  该文章的亮点之处在于使用attention机制对文档中句子进行weighted-sum pooling,以此完成query-focused的句子表示和ranking。

  总结

  本次主要介绍了四篇文本摘要的工作,前两篇为生成式(abstractive)摘要,后两篇为抽取式(extractive)摘要。对于生成式摘要,目前主要是基于encoder-decoder模式的生成,但这种方法受限于语料的获得,而Rush等提出了利用English Gigaword(即新闻数据)构建平行句对语料库的方法。IBM在Facebook工作启发下,直接使用了seq2seq with attention模型进行摘要的生成,j2直播,获得了更好的效果。对于抽取式摘要,神经网络模型的作用多用来学习句子表示进而用于后续的句子ranking。

  广告时间

  PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。

  微信公众号:PaperWeekly

  微博账号:PaperWeekly()

  微信交流群:微信+ zhangjun168305(请备注:加群 or 加入paperweekly)

(责任编辑:本港台直播)
顶一下
(0)
0%
踩一下
(0)
0%
------分隔线----------------------------
栏目列表
推荐内容