首页 文章

斯坦福NLP工具和大量文本

提问于
浏览
0

我目前正在使用Stanford CoreNLP工具从文本中提取三元组 . 我一直在处理相对较小的文本,但我需要让它适用于较大的文本 . 此外,我需要平均机器上的这项工作与平均内存量 . 关于如何减少内存负载的任何建议?也许将文本拆分成更小的部分(这会搞砸芯片式但是......)?

谢谢

1 回答

相关问题