转载

Question Answering with Subgraph Embedding

Question Answering with Subgraph Embedding

总结

文章提出一个将问题、候选答案映射到低维稠密向量,然后计算其关联程度评分,通过排序确定最后

的答案。训练的过程是一个多任务训练过程,不仅使利用<问题、答案>对,也使用相同意思的问题对,

来丰富词向量信息。

候选答案的获取

首先从问题中匹配出一个主题实体

策略1:仅仅考虑与主题实体距离一跳以内的实体(有些问题的答案并不是在一跳以内)

策略2:考虑与主题实体距离两跳以内的实体,但是由于两跳以内的实体,数量过于庞大,所以作者考虑

利用关系类型进行筛选,仅仅考虑关系类型与问题有较大关联程度的2跳实体,加入候选集。

问题和答案的嵌入

问题的嵌入

问题的嵌入十分简单,就是词向量相加

候选答案嵌入

候选答案的嵌入分为三个策略:

单个实体嵌入

路径嵌入:开始实体、结束实体、以及连接的关系类型(1跳对应三个向量、2跳对应四个向量,中间的实体不考虑)

子图嵌入:不仅考虑路径嵌入,也考虑子图嵌入,即与候选实体关联的实体及其实体类型。

总体流程图如下

疑问

其实还有个疑问,作者是怎么推理出答案包含多个实体,有些看不懂。

论文原文

正文到此结束
本文目录