我有一个用于HDFS数据节点的docker swarm设置如下(截断):
datanode:
image: bde2020/hadoop-datanode:2.0.0-hadoop2.7.4-java8
volumes:
- datanode:/hadoop/dfs/data
deploy:
mode: global
placement:
constraints: [ node.role == worker ]
volumes:
datanode:
每个datanode容器都有一个关联的datanode卷,当前存储在/ var / lib / docker / volumes中(每个节点的本地) . 我可以访问更大(更快)的光泽文件系统,并且正在寻求了解如何将卷存储在Lustre文件系统上 .
一个可能是symlink / var / lib / docker / volumes到/ luster / nodeN(其中N是物理节点号),但似乎namenode无法处理堆栈重启,因为数据会(可能)被移动到另一个节点 .
是否存在docker驱动器以支持群集中的光泽文件系统上的docker卷?如果没有,团队如何管理像HDFS这样的系统的docker volume数据持久性?
1 回答
I'm afraid not 如果我没有误解你,因为对于docker配置不存在
driver: lustre
或类似物,其存在方式与nfs
相同,例如:因此,如果您考虑以下架构,请尝试使用 lustre-graph-driver
https://github.com/bacaldwell/lustre-graph-driver/blob/master/lustre-graph-driver.jpg
lustre-graph-driver HOWTO中的更多信息