python xrenner json-nlp包
xrennerjsonnlp的Python项目详细描述
xrenner到json-nlp
(c)2019年,Damir Cavar,Oren Baldinger,Maanvitha Gongalla,Anurag Kumar,Murali Kammili,Boli Fang
由NLP-Lab.org带给你的!
简介
Xrenner包装JSON-NLP。Xrenner专门研究互指和回指消解,以更高的注释方式 不仅仅是一个互指链。
必需的依赖项分析
xrenner需要CoNLL-U格式的Dependency Parse。 这可以来自CoreNLP,或者另一个以[connl-u]格式提供通用依赖项的解析器。 要做到这一点,有两种方法:
corenlp服务器
XrennerPipeline
类将处理细节,但是它需要一个可用的CoreNLP服务器。
最简单的创建方法是使用Docker:
docker pull nlpbox/corenlp
docker run -p 9000:9000 -ti nlpbox/corenlp
要对此进行测试,请打开一个新选项卡,
wget -q --post-data "Although they didn't like it, they accepted the offer." 'localhost:9000/?properties={"annotators":"depparse","outputFormat":"conll"}' -O /dev/stdout
然后需要在项目的根目录中创建一个.env
文件,按照sample_env
中的示例操作。
与上面的Docker命令对应的默认条目是:
CORENLP_SERVER=http://localhost:9000
提供您自己的conll-u
使用XrennerPipeline.process_conll
函数,将conll数据作为字符串通过
参数conll
。
您可能会发现pyjsonnlp.conversion.to_conllu
函数有助于转换JSON-NLP,
可能是从spaCy,到CoNLL-U。
微服务
JSON-NLP存储库提供了一个microservice类,带有一个预构建的Flask实现。要运行它,请执行:
python xrennerjsonnlp/server.py
由于server.py
扩展了Flask应用程序,wsgi文件将包含:
from xrennerjsonnlp.server import app as application
文本通过GET
或POST
参数提供给微服务。如果您将url
作为参数传递,那么microservice将删除该url并处理网站的文本。
下面是一个示例GET
调用:
http://localhost:5000?text=John went to the store. He bought some milk.
上面提到的process_conll
端点在/process_conll
上可用。
乌里。不是传递text
,而是传递conll
。手术后要比手术后
在这种情况下。