在命名实体识别(NER)中,前一句对当前句有影响吗?与在由多个句子组成的文章上应用 NER 相比,如果分别对每个句子应用 NER,结果是否相同?

更具体地说,我正在使用 Spacy NER。这是方法一:

import spacy
nlp = spacy.load('en')

sentences = "My name is Bruce and I come from New York. Pete is my best friend from Amsterdam."

nlp_object = nlp(sentences)
print([(y.text, y.label_) for y in nlp_object.ents])

这产生了这个结果:
[('Bruce', 'PERSON'), ('New York', 'GPE'), ('Pete', 'PERSON'), ('Amsterdam', 'GPE')]

但是,除了最后两行,您还可以拆分句子并对每个句子应用 NER:
for s in sentences.split("."):
    nlp_object = nlp(s)
    print([(y.text, y.label_) for y in nlp_object.ents])

返回相同的结果(但在两个单独的行中):
[('Bruce', 'PERSON'), ('New York', 'GPE')]
[('Pete', 'PERSON'), ('Amsterdam', 'GPE')]

在这个例子中,运行代码给出了相同的提取实体。但是底层模型是如何做到这一点的呢? NER中前一句有影响吗? NER的不同实现之间有什么区别吗?

最佳答案

Spacy NER 系统使用深度神经网络来训练数百万个词实体对示例。如果您查看它们的示例训练代码 here. ,则通常将这些对作为单独的句子进行训练。

虽然我不知道 spacy 提供的预训练模型究竟是如何训练的,但我可以假设它们也是使用单个句子训练的。即使不是,前面的句子也不应该有任何影响,因为训练数据不是作为单词提供给深度学习系统的,而是作为向量表示,从其他文本样本中学习的。查看 this article 以了解上下文词如何影响预测。

关于python - 前一句的命名实体识别影响,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/53276718/

10-11 01:29