最新Hadoop HA(NFS)高可集群性主备配置

更新时间:2023-07-10 05:03:29 阅读: 评论:0

Hadoop HA高可集群性主备配置
一、 Hadoop 的高可用性
1. 概论
本指南提供了一个HDFS 的高可用性(HA )功能的概述,以及如何配置和管理HDFS 高可用性(HA) 集群。本文档假定读者具有对HDFS易经学习 集群的组件和节点类型具有一定理解。有关详情,请参阅Apache HDFS 的架构指南。
hadoop.apache/common/docs/current/hdfs_design.html
2. 背景
CDH4 之前,在HDFS 集群中NameNode 存在单点故障SPOFsingle point of failure。对于只有一个NameNode 的集群,如果NameNode 机器出现故障,那么整个集群将无法使用,直到NameNode 重新启动。
NameNode 主要在以下两个方面影响HDFS 集群:
(1). NameNode 机器发生意外,比如宕机,集群将无法使用,直到管理员重启NameNode
(2). NameNode 机器需要升级,包括软件、硬件升级,此时集群也将无法使用
对于7×24生产环境,是具有极大的风险。
 
HDFS HA 功能通过配置Active/Standby 两个NameNodes 实现在集群中对NameNode 的热备来解决上述问题。如果出现故障,如机器崩溃或机器需要升级维护,这时可通过此种方式将NameNode 很快的切换到另外一台机器。
3. 架构
在一个典型的HDFS(HA) 集群中,使用两台单独的机器配置为NameNodes 。在任何时间点,确保NameNodes 中只有一个处于Active 状态,其他的处在Standby 状态。其中ActiveNameNode 负责集群中的所有客户端操作,StandbyNameNode 仅仅充当备机,保证一旦ActiveNameNode 出现问题能够快速切换。
为了保证Standby 节点与Active 节点的状态保持同步,目前是通过两个节点同时访问一个共享的存储设备( NFS) 来实现的,在以后的版本中可能会做进一步的改进。
Active 节点的namespace 发生改变时,存储在共享目录中的日志文件也会被修改,Standby 节点监测到日志变化后,将其作用到自身的namespace 。当Active 节点发生故障需要进行切换时,Standby 节点由东坡公园Standby 状态转换为Active结婚邀请函怎么写 状态前将会把所有未读日志作用到自身的namespace 以确保自身的namespace 与主节点的namespace 保持一致。
为了实现快速切换,Standby 节点获取集群的最新文件块信息也是很有必要的。为了实现这一目标,DataNode 腹泻草需要配置NameNodes 的位置,并同时给他们发送文件块信息以及心跳检测。
任意时间只有一个ActiveNameNode 对于恐怖英语HDFS(HA) 集群的正常运行至关重要,否则两者的namespace 将不能保持同步,面临数据丢失和其它问题的危险性。为了防止出现这种情况,管理员必须为共享存储配置至少一个安全机制。这种机制应该保证: 在切换期间,如果不能证实当前Active 节点已经改变了状态,那么此机制应切断当前Active 节点对共享存储的访问,这样可以防止在切换期间当前Active 节点继续对namespace 进行修改,确保新的
Active 节点能够安全的切换。
注意:
此版本只支持手动切换,这意味着集群并不能自动检测Active 节点发生故障。
二、常见的HA方案
1、常见HA方案
目前社区版的做法是有两种保障机制,第一种是可以设置一个NFS的目录,存储fsimageeditlog,存储的是实时数据,这样当namenode挂掉后能够通过fsimageeditlog进行完全恢复。第二种是设置condary namenode,名称很迷惑,但其作用是对fsimageeditlog进行定期的merge,默认是5分钟,所以获得的数据是过期的,存在数据丢失,但是能够恢复大部分数据。
黑白人物图片       Hadoop本身提供了可利用condarynamenode的备份数据来恢复namenode的元数据的方案,但因为checkpoint(在每次checkpoint的时候condarynamenode才会合并并同步
namenode的数据)的问题,condarynamenode的备份数据并不能时刻保持与namenode同步,也就是说在namenode宕机的时候condarynamenode可能会丢失一段时间的数据,这段时间取决于checkpoint的周期。我们可以减小checkpoint的周期来减少数据的丢失量,但由于每次checkpoint很耗性能,而且这种方案也不能从根本上解决数据丢失的问题。所以如果需求上不允许这种数据的丢失,这种方案可直接不予考虑。
2、存在的问题
对于生产集群来说,很多操作不能够停止太长时间。而对于上面两种方式,即使能够恢复数据,重新将namenode上线,在经过datanodeblockReport过程,需要很长时间。相同的问题也出现在打patch上,如果对datanodepatch最美七月影响还不是很大,可以一台一台打patch,即使下线一台datanode,数据的多份拷贝不会丢失,client可以通过与namenode通信获得其它的副本对应的datanode的位置,整体的服务没有停止。但是如果对于namenode北方春节习俗patch,就需要停止整体服务,重新上线后会等待大量时间在datanodeblockReport上。根据facebook的一篇文章,他们重新启动12PB的数据的集群需要大概半个小时。
3FaceBookHA做法
Facebook的做法是在不改变namenodedatanode整体逻辑的基础上,在其上层开发出AvaterNodeAvatarNode的意思就是支持互相切换,就像人可以切换Na'vi族人,也可以切换过来一样。他们的做法是提供一个Primary Avatar和一个Standby Avatar,通过virual IP来设置IP地址。Primary Avatar对外提供服务,设置了NFS目录,将FSImageEditLog远程存储。Standby AvatarNFS目录中的FSImageEditLog读取过来进行同步,并且设置Standby Avatar一直处于safemode状态,不影响正常操作。这样Standby Avatar相当于一个热拷贝,获得了所有的实时数据。在Datanode部分也进行了封装,所有Datanode都像两个Namenode汇报,保证数据的实时性。这样,当Primary Avatar下线后,通过操作可以迅速让Standby Avatar切换为Primary Avatra上线。时间在分钟级,并且不需要重启。

本文发布于:2023-07-10 05:03:29,感谢您对本站的认可!

本文链接:https://www.wtabcd.cn/fanwen/fan/89/1075282.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:集群   数据   节点   需要   切换   丢失   进行   问题
相关文章
留言与评论(共有 0 条评论)
   
验证码:
推荐文章
排行榜
Copyright ©2019-2022 Comsenz Inc.Powered by © 专利检索| 网站地图