我已在由 10 台 Core OS 机器(3 个主节点、7 个代理节点)组成的 DCOS 集群上安装了 Universe 中的 HDFS。我的 HA HDFS 配置有 2 个名称节点、3 个日志节点和 5 个数据节点。现在,我的问题是。 HDFS 不应该对机器重启具有弹性吗?如果我重新启动安装了数据节点的计算机,数据节点将被重建为其他节点的镜像(仅在从 DC/OS UI 重新启动 HDFS 服务后)。如果日志节点或名称节点所在的位置重新启动,这些节点将被标记为丢失并且永远不会重建。
最终,该问题在适用于 DC/OS 的 Universe HDFS 软件包的一个有缺陷的版本中被发现。然而,适用于 DC/OS 的全新 HDFS 软件包将在未来几周内在 Universe 上发布。
https://dcos-community.slack.com/archives/data-services/p1485717889001709 https://dcos-community.slack.com/archives/data-services/p1485717889001709
https://dcos-community.slack.com/archives/data-services/p1485801481001734 https://dcos-community.slack.com/archives/data-services/p1485801481001734
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)