我正在尝试使用 h2o steam (在localhost上运行)来部署模型 . 从 h2o flow 导入模型后,单击项目的 "models" 部分中的 "deploy model" 选项,填写生成的对话框,然后单击"deploy"按钮,将显示以下消息:
h2o steam
h2o flow
"models"
"deploy model"
起初我以为是因为我可能需要自己启动服务构建器,所以我按照文档here启动它,但仍然遇到了同样的错误 . 任何建议,将不胜感激 . 谢谢 :)
通过在shell中执行以下命令,确保jetty HTTP服务器在本地运行: java -jar var/master/assets/jetty-runner.jar var/master/assets/ROOT.war
java -jar var/master/assets/jetty-runner.jar var/master/assets/ROOT.war
看起来here,似乎我需要"override"某种默认的浏览器限制来访问localhost:8080(这是我假设 steam 试图启动服务构建器(我不太了解网络相关的东西) ) . 我通过使用以下命令启动 steam 来解决这个问题:
steam
$ ./steam serve master --prediction-service-host=localhost --prediction-service-port-range=12345:22345
其中端口是在(1025,65535)之间的某个任意范围,我通过单词搜索 steam source code的页面获得(截至本文发布之日的第182行) .
这样做可以让我通过 steam 对话框部署模型而不会出现任何错误消息 . 同样,我对网络相关的东西知之甚少,所以如果有人有更好的方法来解决这个问题(即允许访问localhost:8080),请发帖或评论 . 谢谢 .
2 回答
通过在shell中执行以下命令,确保jetty HTTP服务器在本地运行:
java -jar var/master/assets/jetty-runner.jar var/master/assets/ROOT.war
看起来here,似乎我需要"override"某种默认的浏览器限制来访问localhost:8080(这是我假设
steam
试图启动服务构建器(我不太了解网络相关的东西) ) . 我通过使用以下命令启动steam
来解决这个问题:其中端口是在(1025,65535)之间的某个任意范围,我通过单词搜索
steam
source code的页面获得(截至本文发布之日的第182行) .这样做可以让我通过
steam
对话框部署模型而不会出现任何错误消息 . 同样,我对网络相关的东西知之甚少,所以如果有人有更好的方法来解决这个问题(即允许访问localhost:8080),请发帖或评论 . 谢谢 .