我说有12个事件发送到Flume,将它们存储到HDFS接收器中 . 由Flume创建的文件具有.tmp扩展名,因为它配置为根据文件大小滚动文件 . 当我执行 hdfs dfs -cat /some/path/file-stored-by-flume.1526623078683.tmp 时,打印出所有10个事件 . 不幸的是,在该文件上安排MapReduce作业只会导致映射器消耗的前几行 . 任何想法如何强制MapReduce作业处理 hdfs dfs -cat 命令实际可用的所有行?