实验室动态

[2019 NLPCC] How Question Generation can Help Question Answering over Knowledge Base

胡森关于使用问题生成模型优化知识库问答模型的论文(How Question Generation can Help Question Answering over Knowledge Base)被 NLPCC 2019 录用。

知识库问答模型对输入的自然语言问题进行解析查询,返回知识库中的一个子图(若干三元组)。而基于知识库的问题生成模型则是给定若干三元组,生成一个具备相同含义的自然语言问题。可以看到,这两个任务存在天然联系。这篇论文中,我们研究如何利用问题生成模型来优化问答模型的性能。

论文首先使用概率公式将两个模型联系起来,并基于这种联系对两个模型进行共同训练,即为各自的损失函数增加一个由概率公式演化而来的正则项。其次利用注意力机制和复制机制使用问题生成模型在维基百科语料的支持下对问答数据集进行扩充,从而提升问答模型在未接触谓词上的效果。在多个数据集上的实验验证了所提出算法的有效性。