Abstract
用于文本生成的神经模型在解码阶段需要一个 softmax 层和适当的词嵌入层。
大多数现有方法采用为每个词采用单个点 embedding。
然而, 一个词语可能根据上下文不同有多重含义, 这可能会带来混淆。
这篇文章提出一种新的可以用于文本生成的学习更好的 embeddings 的方法 KerBS。
KerBS 有两个优势: a) 它使有多个含义的词使用 embeddings 的 Bayesian composition; b) 它对 variances of words 有自适应性 并且 通过施加可学习 kernels 在 embedding 空间 捕获 词语 的 closeness 是的少见句子的上下文更健壮。
实证研究表明,KerBS显著提高了多个文本生成任务的性能。
Conclusion
文本生成需要适当的单词嵌入空间。
这篇文章提出KerBS来学习更好的嵌入用于文本生成。
与传统的softmax 不同, KerBS 每个词包含一个 multi-sense embedding 的 Bayesian composition。
将 KerBS 加入文本生成可以在几个文本生成任务上提高性能, 特别是对话生成任务。
未来的工作包括提出更好的 kernel 用于生成以及设计一个 meta leaner 来动态地分配 senses。
-
Previous
【深度学习】Video-aided Unsupervised Grammar Induction -
Next
【深度学习】A Picture is Worth a Thousand Words: A Unified System for Diverse Captions and Rich Images Generation