问题描述
除了管道的其余部分之外,我还尝试使用 StanfordCoreNLP 4.2.0 从中文数据中提取引号和核心信息。我已经能够使用以下代码使 tokenize、ssplit、pos、lemma、ner、depparse、kbp 工作:
"java -cp"+ class_path +"*; -Xmx" + memory + "g edu.stanford.nlp.pipeline.StanfordCoreNLP -props StanfordCoreNLP-chinese.properties -threads "+ nthreads + " -annotators tokenize,ssplit,pos,lemma,ner,depparse,kbp" + " -filelist " + file_list + " -outputDirectory "+ output_folder + " -outputFormat xml"
但是当我向注释器添加 coref 和/或引用时,它不输出任何文件(我当前的输出是 xml,但我也尝试了文本)。我试过了:
- tokenize,kbp,quote,coref
- tokenize,quote
- tokenize,coref -coref.algorithm neural
- tokenize、ssplit、pos、lemma、ner、depparse、kbp、coref
而且我已经尝试使用 parse 而不是 depparse。即使只使用 tokenize、ssplit、pos、parse,我也无法让解析注释器工作 - 它不输出任何内容。
关于为什么会发生这种情况的任何建议将不胜感激!
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)