关于中文使用quote和coref的问题

问题描述

除了管道的其余部分之外,我还尝试使用 StanfordCoreNLP 4.2.0 从中文数据中提取引号和核心信息。我已经能够使用以下代码使 tokenize、ssplit、pos、lemma、ner、depparse、kbp 工作:

"java -cp"+ class_path +"*; -Xmx" + memory + "g edu.stanford.nlp.pipeline.StanfordCoreNLP -props StanfordCoreNLP-chinese.properties -threads "+ nthreads + " -annotators tokenize,ssplit,pos,lemma,ner,depparse,kbp" + " -filelist " + file_list + " -outputDirectory "+ output_folder + " -outputFormat xml"

但是当我向注释器添加 coref 和/或引用时,它不输出任何文件(我当前的输出是 xml,但我也尝试了文本)。我试过了:

  • tokenize,kbp,quote,coref
  • tokenize,quote
  • tokenize,coref -coref.algorithm neural
  • tokenize、ssplit、pos、lemma、ner、depparse、kbp、coref

而且我已经尝试使用 parse 而不是 depparse。即使只使用 tokenize、ssplit、pos、parse,我也无法让解析注释器工作 - 它不输出任何内容

关于为什么会发生这种情况的任何建议将不胜感激!

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...