Reasoning With Neural Tensor Networks For Knowledge Base Completion-paper

https://www.socher.org/index.php/Main/ReasoningWithNeuralTensorNetworksForKnowledgeBaseCompletion

年份:2013

https://www.cnblogs.com/wuseguang/p/4168963.html

https://blog.csdn.net/wty__/article/details/52447128

Socher等人于2013年提出了RNTN(Recursive Neural Tensor Networks)模型,即使用张量(Tensor)来表示组合参数。常用的三阶张量可以被理解为多个矩阵构成的向量,其中每个矩阵可以被认为是某种类型的组合操作,最终组合在一起。通过张量,既可以减少所需学习的参数,也可以表示丰富的组合操作,因此RNTN模型也取得了较好的效果。在细粒度情感分析任务上,将MV-RNN获得的44.4%的准确率,提高到了45.7%。其中细粒度情感分类指的是将句子所表达的情感,如褒贬等划分为5个级别,对应的是评论网站对商品打分的星级。

知识库:
OpenKG收集和整理国内国外重要的开放知识库和知识图谱项目,并组织整理相关的中文资料免费对外开放。YAGO是由德国马普研究所研制的链接数据库。YAGO主要集成了Wikipedia、WordNet和GeoNames三个来源的数据。YAGO将WordNet的词汇定义与Wikipedia的分类体系进行了融合集成,使得YAGO具有更加丰富的实体分类体系。YAGO还考虑了时间和空间知识,为很多知识条目增加了时间和空间维度的属性描述。目前,YAGO包含1.2亿条三元组知识。YAGO是IBM Watson的后端知识库之一。

hyponymic:(词义之间的)下义关系,上下位关系
tensor factorization:张量因子分解
Hadamard product(哈达玛积):m x n矩阵A = [aij]与矩阵B = [bij]的Hadamard积,记为A * B 。新矩阵元素定义为矩阵A、B对应元素的乘积(A * B)ij = aij*bij
identity:恒等式

贡献:
1)模型的作用是已知事实基础上预测另外的事实,例如当别人告诉你一种新猴子刚被发现时,你不需要去查找证据就可以知道这猴子也有腿。
之前的工作是使用patterns或classifiers来扩展已有的知识库应用到更大的文本语料中
2)介绍了一种新的方法来表示知识库中的entities,we represent each entity as the average of its word vectors, allowing the sharing of statistical strength between the words describing each entity e.g., Bank of China and China.
之前的工作都是每个entit用一个向量表示,不能够sharing statistical strength if entity names share similar substrings.
3)用到了the incorporation of word vectors which are trained on large unlabeled text.This readily available resource enables all models to more accurately predict relationships.在大型未标记文本上训练的单词向量的合并。这种随时可用的资源使所有模型能够更准确地预测关系。

理解双线性的含义

与我的项目相关度不高

原文地址:https://www.cnblogs.com/rosyYY/p/10185484.html