我目前正在使用Stanford CoreNLP工具从文本中提取三元组 . 我一直在处理相对较小的文本,但我需要让它适用于较大的文本 . 此外,我需要平均机器上的这项工作与平均内存量 . 关于如何减少内存负载的任何建议?也许将文本拆分成更小的部分(这会搞砸芯片式但是......)?
谢谢
强制方法:使用off heap内存(使用磁盘空间作为Java程序的内存),请参阅thread或go here to learn more about BigMemory library . 慢,但它可能是你正在寻找的 .
1 回答
强制方法:使用off heap内存(使用磁盘空间作为Java程序的内存),请参阅thread或go here to learn more about BigMemory library . 慢,但它可能是你正在寻找的 .