欢迎来到知嘟嘟! 联系电话:13336804447 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13336804447
知嘟嘟经纪人
收藏
专利号: 2018100409558
申请人: 智言科技(深圳)有限公司
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2026-03-03
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于关系检测和强化学习的知识图谱推理方法,其特征在于,包括以下步骤:步骤S10,基于领域知识图谱和实体字典的字符串模糊匹配和基于CNN-LSTM-CRF的实体识别模型,检测用户输入的自然语言问句中的实体,完成实体检测;

步骤S20,基于神经网络的语义匹配模型完成关系检测,关系检测模型包括:根据输入的自然语言问句以及与该自然语言问句相关的关系及不相关的关系,通过神经网络得到低维流形表示,基于该低维流形表示,使用rank loss优化模型参数,以使得自然语言问句能够从关系集合中找到与其语义最相近的关系;

步骤S30,基于强化学习的知识图谱推理,每个时间步,根据策略函数(Policy function)πθ,在当前实体et下,选择一条out-going的relationrt+1,走到下一个实体et+1,经过预设的最大的推理路径长度T的序列决策,达到最终的实体eT,所述实体eT作为自然语言问句的答案进行输出。

2.如权利要求1所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,步骤S20具体包括:用户输入的自然语言问句记作u,

通过第一层双向LSTM得到embedding表示:

通过第二层双向LSTM得到embedding表示:

则用户问句的embedding表示为:

关系rtoken和rmerged也通过相应的双向LSTM得到对应的关系的embedding表示:则关系表示为:

则优化的目标函数为:

其中, 表示与u语义相近的关系,并记作Positive relation,而则表示与u语义不相近的句子,并记作negative relation。

3.如权利要求1所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,所述步骤S30还包括:引入(et,r,et)自转移关系和(s,r,o)和(o,r-1,s)反向关系,当前推理路径的观测状态记作observation,该observation表示为O={et,e1q,rq},其中,et是当前在图谱上的实体、e1q是用户问句中提到的实体、rq是与用户问句匹配的关系;奖励函数Reward表示为R(sT)=I(eT=e2q),e2q是该模型在知识图谱中的找到的答案实体,当且仅当达到预设的最长推理路径T后,如果eT=e2q,则赋予1,反之赋予0;动作Action表示为:从当前实体et发射的所有关系的集合At;状态State表示为ht=LSTM(ht-1,[at-1;ot]),ot是当前时刻的observation,at-1是从前一个时刻实体et-1的所有发射关系的集合At-1中基于策略函数πθ随机选择的关系;在t时刻的关系选取概率πθ,建模为:dt=softmax(At(W2ReLU(W1[ht;ot;

rq])))

at~Categorical(dt)。

4.如权利要求3所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,优化函数为期望奖励函数(expected accumulated reward function):。

5.如权利要求4所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,模型参数θ通过REINFORCE算法进行优化。

6.如权利要求5所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,每个训练样本({e2q,e1q,rq})使用multiple rollouts,使得每个样本{e2q,e1q,rq}复制多次,基于当前的策略函数,进行多次不同的推理。

7.如权利要求5所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,使用累计衰减奖励期望(expected accumulative discounted reward)作为base-line。

8.如权利要求5所述的基于关系检测和强化学习的知识图谱推理方法,其特征在于,加入熵(entropy)作为正则项(regularization term),以使得模型的exploration和exploitation达到更好的平衡。