在命名实体识别(NER)中,前一句对当前句有影响吗?与在由多个句子组成的文章上应用 NER 相比,如果分别对每个句子应用 NER,结果是否相同?
更具体地说,我正在使用 Spacy NER。这是方法一:
import spacy
nlp = spacy.load('en')
sentences = "My name is Bruce and I come from New York. Pete is my best friend from Amsterdam."
nlp_object = nlp(sentences)
print([(y.text, y.label_) for y in nlp_object.ents])
这产生了这个结果:
[('Bruce', 'PERSON'), ('New York', 'GPE'), ('Pete', 'PERSON'), ('Amsterdam', 'GPE')]
但是,除了最后两行,您还可以拆分句子并对每个句子应用 NER:
for s in sentences.split("."):
nlp_object = nlp(s)
print([(y.text, y.label_) for y in nlp_object.ents])
返回相同的结果(但在两个单独的行中):
[('Bruce', 'PERSON'), ('New York', 'GPE')]
[('Pete', 'PERSON'), ('Amsterdam', 'GPE')]
在这个例子中,运行代码给出了相同的提取实体。但是底层模型是如何做到这一点的呢? NER中前一句有影响吗? NER的不同实现之间有什么区别吗?
最佳答案
Spacy NER 系统使用深度神经网络来训练数百万个词实体对示例。如果您查看它们的示例训练代码 here. ,则通常将这些对作为单独的句子进行训练。
虽然我不知道 spacy 提供的预训练模型究竟是如何训练的,但我可以假设它们也是使用单个句子训练的。即使不是,前面的句子也不应该有任何影响,因为训练数据不是作为单词提供给深度学习系统的,而是作为向量表示,从其他文本样本中学习的。查看 this article 以了解上下文词如何影响预测。
关于python - 前一句的命名实体识别影响,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/53276718/