首页 文章

Squelching TensorFlow gRPC日志消息

提问于
浏览
1

每当我创建分布式TF会话时(通过指定非空目标),将打印以下日志消息:

E0104 11:24:54.243533559   17805 ev_epoll1_linux.c:1051]     grpc epoll fd: 19

出于某种原因,这是用ERROR日志级别打印的,但gRPC代码中的corresponding line似乎是在INFO级别打印(默认情况下会根据需要不可见) . Swift implementation确实以ERROR级别登录 . 我在Linux平台上,因此无论预编译的TF二进制文件使用的gRPC版本必须使用打印到ERROR的过时gRPC版本 .

这足以用TF 1.4.0和1.4.1复制,也可能是其他人复制 .

python -c 'import tensorflow as tf; print(tf.__version__); tf.Session(tf.train.Server.create_local_server().target)'

再看一下gRPC log source,似乎 GRPC_VERBOSITY 环境变量应该允许我使这个错误无声 . 但是,尝试 GRPC_VERBOSITY=FATALGRPC_VERBOSITY=0GRPC_VERBOSITY=-1 中的任何一个都无法提供帮助 . 这告诉我TF可能正在启动带有自己手动设置的env变量的gRPC服务器 . 我该如何覆盖?

1 回答

  • 1

    grpc在2017年8月将该消息降级为INFO之前将该消息记录为ERROR . 我认为tf正在更新grpc版本 .

相关问题