Motivation
预训练语言模型拥有很强的表征能力,可以利用预训练语言模型生成的语言表征高效捕捉文本的语法和语义特征。作者认为目前平凡的预训练目标不能明确建模relational facts,而relational facts对于理解整个文本十分重要。现有的关于建模实体及实体之间关系的研究主要关注于句内实体之间的孤立关系,忽略了在整个文档层面上实体之间的关系。
Contribution
提出了两个预训练目标,用以更好地捕获in-text facts:
- Entity Discrimination task(实体区分任务),用给定的头实体和关系区分出尾实体
- Relation Discrimination task(关系区分任务),区分两个给定的关系是否语义上相似
Methodology
数据构建和形式化描述
ERICA 在大规模无标签的语料上训练,并由外部知识图谱 K 进行远程监督。
首先将数据以文档为单位分批, D={di}i=1∣D∣ 是一个包含若干文档的一个 batch。
Ei={eij}j=1∣Ei∣ 是文档 di 中出现的所有实体的集合,其中 eij 是文档 di 中的第 j 个实体。
对于文档 di, 作者枚举出其中的所有实体对 (eij,eik), 并将它们以 K 中的关系 rjki 连接起来,这样就得到了一个元组集 Ti={tjki=(di,eij,rjki,eik)∣j=k}. 对于 K 中不存在关系的实体对(out-of-KG 问题), 将其关系设置为 no_relation
.
对于整个批次,将其中每个文档的元组集拼接得到整个批次的元组集 T=Ti∪T2∪...∪T∣D∣.
进一步,作者通过去除 T 中所有关系为 no_relation
的元素构建了阳性元组集 T+. T+ 中包含句内实体对和句间实体对。
实体和关系的表征方法
对于每个文档 di ,作者首先使用 PLM 对齐进行编码,计算出每个 token 的表征 {h1,h2,...,h∣di∣}, 然后对于文档中的每个实体 eij, 作者通过对这个实体所包含的所有 token 的表征进行均值池化(mean pooling) 获得这个实体本次出现的局部表征。由于一个实体在文档中可能多次出现,其第 k 次出现的局部表征记为:
meijk=MeanPool(hnstartk,...,hnendk)
其中,nstartk 和 nendk 分别是实体 eij 所包含的 token 在文档 di 中第 k 次出现的起始位置和终止位置。
同时作者将文档中 eij 的所有局部表征取均值作为其在文档中的全局特征 eij,作者认为eij中包含该实体在该文档中的全部信息
对于文档中两个实体 eij1,eij2 之间的关系,作者将其全局表征拼接起来作为其关系的表征 rj1j2i=[eij1;eij2]
两个预训练目标
Entity Discrimination, ED
实体辨别任务是根据给定的文档和头实体以及关系推断出尾实体。作者认为,这个任务可以促使PLM通过实体之间的关系理解实体。
实践中,先从 T+ 中采样一个元组 tjki=(di,eij,rjki,eik). 然后使用 PLM 区分GT尾实体和文档 di 中的其他实体。实际的数据构造成如下的格式:
di∗="relation_name entity_mention[SEP]di"
即将关系 rjki 的名称,头实体 eij 的 mention(文字) 放在文档 di 的前面,并用 [SEP] 隔开。
该任务的目标就是最大化如下后验概率:
P(eik∣eij,rjki)=softmax(f(eik))
其中 f(⋅) 是一个实体分类器。
作者实验发现直接优化上述后验概率并不能很好地考虑实体之间的关系,因此借鉴对比学习的思想,训练表征使实体正样本(eij,eik)之间的余弦距离比负样本更近。ED任务的损失函数设计为:
LED=−tjki∈T+∑log∑l=1,l=j∣Ei∣exp(cos(eij,eil)/τ)exp(cos(eij,eik)/τ)
其中的 τ 是一个超参数。
Relation Discrimination, RD
关系辨别任务即辨别两个关系是否语义上相似,与现存的关系增强的PLM相比,本文提出的方法主要是使用了文档级别的关系而不是句内关系的远程监督。作者认为这样可以使PLM学会现实世界中的复杂推理链。作者为实体对之间的关系文本训练表征,并优化使共享相同关系的不同实体对之间的关系表征在语义空间中相近。
实践上,作者从 Ts+ 或 Tc+ 中为每种关系线性采样(每种关系对应的采样率与该关系的数量在挡墙batch中的占比成正比)元组对 tA=(dA,eA1,rA,eAe),tB=(dB,eB1,rB,eB2) 其中 rA=rB. 然后使用实体和关系的表征方法中提到的方法对 rA 和 rB 进行编码,获得 rtA 和 rtB . 然后,与ED类似,作者也使用了对比学习的思想构建RD的损失函数:
LRDT1,T2ZLRD=−tA∈T1,tB∈T2∑logZexp(cos(rtA,rrB)/τ)=tC∈T/{tA}∑Nexp(cos(rtA,rrB)/τ)=LRDTs+,Ts++LRDTs+,Tc++LRDTc+,Ts++LRDTc+,Tc+
其中 N 是超参数。实验中确保 tB 从 Z 中采样并且从 T 中构建 N−1 个负样本。
总体训练目标
为避免灾难性遗忘,ERICA 还采用了MLM目标任务,因此总的训练目标是:
L=LED+LRD+LMLM
实验
- 远程监督数据集构建
- 预训练参数细节
- RE 任务上与 CNN,BILSTM,BERT,RoBERTa,HINBERT,CorefBERT,SpanBERT,ERINE,MTB,CP比较。分别在 Document-level 和 Sentence-level 上比较
- Multi-Chioce QA 任务上与 FastQA, BiDAF, BERT, RoBERTa, CorefBERT, SpanBERT, MTB 和 CP 比较。Extractive QA 上与 BERT,RoBERTa,MTB,CP 比较
- 消融实验,探索了 LED 和 LRD 的作用,分析了预训练数据的 domain,size 和 实体编码的方法对性能的影响