背景介绍

  在文章NLP入门(十一)从文本中提取时间 中,笔者演示了如何利用分词、词性标注的方法从文本中获取时间。当时的想法比较简单快捷,只是利用了词性标注这个功能而已,因此,在某些地方,时间的识别效果并不太好。比如以下的两个例子:

原文1:

用笔者之前的代码,提取的时间结果为:

但实际上,我们提取的时间应该是:

原文2:

用笔者之前的代码,提取的时间结果为:

但实际上,我们提取的时间应该是:

  因此,利用简单的词性标注功能来提取文本中的时间会存在漏提、错提的情况,鉴于此,笔者想到能否用深度学习模型来实现文本中的时间提取呢?
  该功能类似于命名实体识别(NER)功能,只不过NER是识别文本中的人名、地名、组织机构名,而我们这次需要识别文本中的时间。但是,它们背后的算法原理都是一样的,即采用序列标注模型来解决。

项目

  在文章NLP(十四)自制序列标注平台中,笔者提出了一种自制的序列标注平台,利用该标注平台,笔者从新闻网站中标注了大约2000份语料,标注出文本中的时间,其中75%作为训练集(time.train文件),10%作为验证集(time.dev文件),15%作为测试集(time.test文件)。
  虽然我们现在已经有了深度学习框架方便我们来训练模型,比如TensorFlow, Keras, PyTorch等,但目前已有某大神开源了一个序列标注和文本分类的模块,名称为kashgari-tf,它能够方便快速地用几行命令就可以训练一个序列标注或文本分类的模型,容易上手,而且集中了多种模型(BiGRU,CNN, BiLSTM,CRF)以及多种预训练模型(BERT,ERNIE,wwm-ext),对于用户来说算是十分友好了。该模块的参考网址为:https://kashgari.bmio.net/
  笔者自己花了几天的时间来标注数据,目前已累计标注2000+数据 ,后续将放到Github供大家参考。我们训练的数据,比如time.train的前几行如下:(每一行中间用空格隔开)

1 B-TIME
6 I-TIME
0 I-TIME
9 I-TIME
年 I-TIME
, O
日 O
本 O
萨 O
摩 O
藩 O
入 O
侵 O
琉 O
球 O
国 O
, O
并 O
在 O
一 O
个 O
时 O
期 O
内 O
控 O
制 O
琉 O
球 O
国 O
...

  接着是模型这块,我们采用经典的BERT+Bi-LSTM+CRF模型,训练1个epoch,batch_size为16,代码如下:

# -*- coding: utf-8 -*-
# time: 2019-08-09 16:47
# place: Zhichunlu Beijing

import kashgari
from kashgari.corpus import DataReader
from kashgari.embeddings import BERTEmbedding
from kashgari.tasks.labeling import BiLSTM_CRF_Model

train_x, train_y = DataReader().read_conll_format_file('./data/time.train')
valid_x, valid_y = DataReader().read_conll_format_file('./data/time.dev')
test_x, test_y = DataReader().read_conll_format_file('./data/time.test')

bert_embedding = BERTEmbedding('chinese_L-12_H-768_A-12',
                               task=kashgari.LABELING,
                               sequence_length=128)

model = BiLSTM_CRF_Model(bert_embedding)
model.fit(train_x, train_y, valid_x, valid_y, batch_size=16, epochs=1)

model.save('time_ner.h5')

model.evaluate(test_x, test_y)

模型训练完后,得到的效果如下:

在测试集上的结果如下:

  由于是小标注量,因此我们选择了用BERT预训练模型。如果不采用BERT预训练模型,在同样的数据集上,即使训练100个epoch,虽然在训练集上的准确率超过95%,但是在测试集上却只有大约50%的准确率,效果不行,因此,需要采用预训练模型。

测试效果

  在训练完模型后,会在当前目录下生成time_ner.h5模型文件,接着我们需要该模型文件来对新的文件进行预测,提取出文本中的时间。模型预测的代码如下:

# Load saved model
import kashgari

loaded_model = kashgari.utils.load_model('time_ner.h5')

while True:
    text = input('sentence: ')
    t = loaded_model.predict([[char for char in text]])
    print(t)

  接着我们在几条新的数据上进行预测,看看该模型的表现效果:

总结

  利用深度学习模型,在小标注量数据上,我们对时间识别取得了不错的效果。后续如果我们想要提高时间识别的准确率,可以再多增加标注数据,目前还只有2000+数据~
  本项目已经开源,Github的地址为:https://github.com/percent4/Chinese_Time_Recogniztion

  另外,强烈推荐kashgari-tf模块,它能够让你在几分钟内搭建一个序列标注模型,而且方便加载各种预训练模型。

08-13 22:12