我正在尝试测试可与神经网络配合使用的new Stanford Dependency parser。我正在尝试运行zip文件中包含的演示。文件ParserDemo.java
和ParserDemo2.java
可以正常工作。但是文件DependencyParserDemo.java
:
import edu.stanford.nlp.ling.HasWord;
import edu.stanford.nlp.ling.TaggedWord;
import edu.stanford.nlp.parser.nndep.DependencyParser;
import edu.stanford.nlp.process.DocumentPreprocessor;
import edu.stanford.nlp.tagger.maxent.MaxentTagger;
import edu.stanford.nlp.trees.GrammaticalStructure;
import java.io.StringReader;
import java.util.List;
/**
* Demonstrates how to first use the tagger, then use the NN dependency
* parser. Note that the parser will not work on untagged text.
*
* @author Jon Gauthier
*/
public class DependencyParserDemo {
public static void main(String[] args) {
String modelPath = DependencyParser.DEFAULT_MODEL;
String taggerPath = "edu/stanford/nlp/models/pos-tagger/english-left3words/english-left3words-distsim.tagger";
for (int argIndex = 0; argIndex < args.length; ) {
switch (args[argIndex]) {
case "-tagger":
taggerPath = args[argIndex + 1];
argIndex += 2;
break;
case "-model":
modelPath = args[argIndex + 1];
argIndex += 2;
break;
default:
throw new RuntimeException("Unknown argument " + args[argIndex]);
}
}
String text = "I can almost always tell when movies use fake dinosaurs.";
MaxentTagger tagger = new MaxentTagger(taggerPath);
DependencyParser parser = DependencyParser.loadFromModelFile(modelPath);
DocumentPreprocessor tokenizer = new DocumentPreprocessor(new StringReader(text));
for (List<HasWord> sentence : tokenizer) {
List<TaggedWord> tagged = tagger.tagSentence(sentence);
GrammaticalStructure gs = parser.predict(tagged);
// Print typed dependencies
System.err.println(gs);
}
}
}
引发错误:
Exception in thread "main" edu.stanford.nlp.io.RuntimeIOException: Unrecoverable error while loading a tagger model
at edu.stanford.nlp.tagger.maxent.MaxentTagger.readModelAndInit(MaxentTagger.java:769)
at edu.stanford.nlp.tagger.maxent.MaxentTagger.<init>(MaxentTagger.java:297)
at edu.stanford.nlp.tagger.maxent.MaxentTagger.<init>(MaxentTagger.java:262)
at DependencyParserDemo.main(DependencyParserDemo.java:40)
Caused by: java.io.IOException: Unable to resolve "edu/stanford/nlp/models/pos-tagger/english-left3words/english-left3words-distsim.tagger" as either class path, filename or URL
at edu.stanford.nlp.io.IOUtils.getInputStreamFromURLOrClasspathOrFileSystem(IOUtils.java:448)
at edu.stanford.nlp.tagger.maxent.MaxentTagger.readModelAndInit(MaxentTagger.java:764)
... 3 more
有人可以告诉我我在做什么错吗?
最佳答案
您的文件“ english-left3words-distsim.tagger”路径似乎不正确。检查您提供的路径是否正确。您也可以尝试使用绝对路径。
Belphegor回答:
我用绝对路径解决了它。我首先在src文件夹中创建了以下文件夹:
edu / stanford / nlp / models / pos-tagger / english-left3words /
在里面我粘贴了文件english-left3words-distsim.tagger
(位于POS-tagger文件stanford-postagger-full-2015-04-20.zip中)。
之后-它起作用了。
关于java - Stanford NN依赖项解析器:加载标记器模型时发生不可恢复的错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32326065/