本文介绍了用stanford-nlp分块一些文本的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我正在使用斯坦福核心NLP,并使用此行加载一些模块来处理我的文本:

I'm using the stanford core NLP and I use this line to load some modules to process my text:

props.put("annotators", "tokenize, ssplit, pos, lemma, ner, parse, dcoref");

这是我可以加载以对文本进行分块的模块吗?

Is ther a module that i can load to chunks the text?

或者有其他建议使用斯坦福核心对文本进行分块吗?

Or any suggestion with a alterantive way to use the stanford core to chunk some text?

谢谢

推荐答案

要在Stanford NLP中使用分块,可以使用以下程序包:

To use chunking with Stanford NLP you can use the following packages:

  • YamCha:基于SVM的NP分块,也可用于POS标签,NER等.C/C ++开源.赢得了CoNLL 2000共享任务. (对于最终用户而言,它比专用的POS标记器要少自动化.)
  • 马克·格林伍德(Mark Greenwood)的《名词短语分块:Ramshaw和Marcus的Java重新实现》(1995年). fliTBL:C ++中基于转换的学习的快速,灵活的实现.包括POS标记器,还包括NP分块和常规分块模型.
  • YamCha: SVM-based NP-chunker, also usable for POS tagging, NER, etc. C/C++ open source. Won CoNLL 2000 shared task. (Less automatic than a specialized POS tagger for an end user.)
  • Mark Greenwood's Noun Phrase Chunker: A Java reimplementation of Ramshaw and Marcus (1995).
  • fnTBL: A fast and flexible implementation of Transformation-Based Learning in C++. Includes a POS tagger, but also NP chunking and general chunking models.

来源: http://www-nlp.stanford.edu/links/statnlp.html#NPchunk

这篇关于用stanford-nlp分块一些文本的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

09-12 13:45