用Stanford corenlp进行词性标注时遇到的问题

因为毕业设计的需要,得对中英文双语语料进行词性标注了,中文我就用了jieba,英文的没找到别的工具,用了Stanford corenlp了,首先用一片短文试运行了一下,运行没问题,但是用我自己的语料(十万行),就提示错误

raise JSONDecodeError("Expecting value", s, err.value) from None

json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)。

网上找了个遍,都没解决好。我觉得这是跟文件的大小有关,有人遇到过类似的情况吗?

你可能感兴趣的:(用Stanford corenlp进行词性标注时遇到的问题)