阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop2.0 HA的主备自动切换

423次阅读
没有评论

共计 7252 个字符,预计需要花费 19 分钟才能阅读完成。

在《Hadoop2.0 QJM 方式的 HA 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101175.htm)一文中介绍了 HA 的配置,是通过手工进行主备切换的。本文在这基础上,继续介绍 HA 的主备自动切换(automatic failover)的配置。自动切换是通过配置 zookeeper 来实现的,关于 zookeeper 的安装和配置,在这里不做介绍了,大家可以参考网上的资料。

1 准备 

假定已经有一个 zookeeper 的集群,3 台机器如下:

  • zookeeper1
  • zookeeper2
  • zookeeper3

两个 namenode 节点如下:

namenode1

namenode2

2 配置 

只涉及到 core-site.xml 和 hdfs-site.xml 两个配置文件,其他配置可以文件参考《hadoop2.0 的安装和基本配置》一文。

2.1 core-site.xml 

需要增加 ha.zookeeper.quorum 参数,加上 zookeeper 的服务地址

完整配置如下:

<configuration>

        <property>

                <name>fs.defaultFS</name>

                <value>hdfs://mycluster</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/tmp/hadoop2.0</value>

        </property>

        <property>

                <name>ha.zookeeper.quorum</name>

                <value>zookeeper1:2181,zookeeper2:2181,zookeeper3:2181</value>

        </property>

</configuration>

2.2 hdfs-site.xml 

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

        <property>

                <name>dfs.namenode.name.dir</name>

                <value>/home/dfs/name</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/home/dfs/data</value>

        </property>

        <property>

                <name>dfs.permissions</name>

                <value>false</value>

        </property>

        <property>

                <name>dfs.nameservices</name>

                <value>mycluster</value>

        </property>

        <property>

                <name>dfs.ha.namenodes.mycluster</name>

                <value>nn1,nn2</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn1</name>

                <value>namenode1:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn2</name>

                <value>namenode2:8020</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn1</name>

                <value>namenode1:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn2</name>

                <value>namenode2:50070</value>

        </property>

        <property>

                <name>dfs.namenode.shared.edits.dir</name>

                <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>

        </property>

        <property>

                <name>dfs.journalnode.edits.dir</name>

                <value>/home/dfs/journal</value>

        </property>

        <property>

                <name>dfs.client.failover.proxy.provider.mycluster</name>

                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

        </property>

        <property>

                <name>dfs.ha.fencing.methods</name>

                <value>shell(/bin/true)</value>

        </property>

        <property>

                <name>dfs.ha.automatic-failover.enabled</name>

                <value>true</value>

        </property>

</configuration>

dfs.ha.automatic-failover.enabled

需要设置为 true,启动自动切换。

dfs.ha.fencing.methods

这里我们把 fencing 方法设置为 shell,一是为了方便测试,二是采用 QJM 方式的 HA 本身就有 fencing 功能,不需要用这个参数中的 fencing 功能,详解请参考《hadoop2.0 QJM 方式的 HA 的配置》一文。你用 sshfence 的方法也是可以的,不过要注意 ssh 连接的问题和一些权限的问题。

3 在 zookeeper 中初始化 

$HADOOP_HOME/bin/hdfs zkfc -formatZK

运行这个命令后,会在 zookeeper 上创建一个 /hadoop-ha/mycluster/ 的 znode,用来存放 automatic failover 的数据。

4 启动 zkfc(zookeeper failover controller) 

需要在 namenode1 和 namenode2 上都启动 zkfc daemon 进程。

$HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc

5 启动 HDFS 

可以参考《Hadoop2.2.0 的安装和基本配置》(见 http://www.linuxidc.com/Linux/2014-05/101173.htm)和《Hadoop2.0 QJM 方式的 HA 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101175.htm)这两篇文章。

在两个 namenode 都启动之后,会发现,其中一个 namenode 会自动切换成 active 状态,不需要手工切换。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-05/101176p2.htm

6 测试 

现在可以享受我们的胜利成果了。我们把 active namenode 停掉后,会看到 standby namenode 自动切换成 active 状态了。

7 QJM 方式 HA automatic failover 的结构图

QJM 方式 HA 的结构涉及到 active namenode,standby namenode,journalnode,datanode,zookeeper,zkfc,client,这里通过一个图描述他们之间的关系。

 

8 实战 tips 

zookeeper 可以在 Hadoop 集群中选几台机器同时作为 zookeeper 节点,给 HA 私用。

在实践中建议采用手工切换的方式,这样更可靠,也方便查找问题。

参考资料 

http://hadoop.apache.org/docs/r2.2.0/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailabilityWithQJM.html

在《Hadoop2.0 QJM 方式的 HA 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101175.htm)一文中介绍了 HA 的配置,是通过手工进行主备切换的。本文在这基础上,继续介绍 HA 的主备自动切换(automatic failover)的配置。自动切换是通过配置 zookeeper 来实现的,关于 zookeeper 的安装和配置,在这里不做介绍了,大家可以参考网上的资料。

1 准备 

假定已经有一个 zookeeper 的集群,3 台机器如下:

  • zookeeper1
  • zookeeper2
  • zookeeper3

两个 namenode 节点如下:

namenode1

namenode2

2 配置 

只涉及到 core-site.xml 和 hdfs-site.xml 两个配置文件,其他配置可以文件参考《hadoop2.0 的安装和基本配置》一文。

2.1 core-site.xml 

需要增加 ha.zookeeper.quorum 参数,加上 zookeeper 的服务地址

完整配置如下:

<configuration>

        <property>

                <name>fs.defaultFS</name>

                <value>hdfs://mycluster</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/tmp/hadoop2.0</value>

        </property>

        <property>

                <name>ha.zookeeper.quorum</name>

                <value>zookeeper1:2181,zookeeper2:2181,zookeeper3:2181</value>

        </property>

</configuration>

2.2 hdfs-site.xml 

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

        <property>

                <name>dfs.namenode.name.dir</name>

                <value>/home/dfs/name</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/home/dfs/data</value>

        </property>

        <property>

                <name>dfs.permissions</name>

                <value>false</value>

        </property>

        <property>

                <name>dfs.nameservices</name>

                <value>mycluster</value>

        </property>

        <property>

                <name>dfs.ha.namenodes.mycluster</name>

                <value>nn1,nn2</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn1</name>

                <value>namenode1:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn2</name>

                <value>namenode2:8020</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn1</name>

                <value>namenode1:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn2</name>

                <value>namenode2:50070</value>

        </property>

        <property>

                <name>dfs.namenode.shared.edits.dir</name>

                <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>

        </property>

        <property>

                <name>dfs.journalnode.edits.dir</name>

                <value>/home/dfs/journal</value>

        </property>

        <property>

                <name>dfs.client.failover.proxy.provider.mycluster</name>

                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

        </property>

        <property>

                <name>dfs.ha.fencing.methods</name>

                <value>shell(/bin/true)</value>

        </property>

        <property>

                <name>dfs.ha.automatic-failover.enabled</name>

                <value>true</value>

        </property>

</configuration>

dfs.ha.automatic-failover.enabled

需要设置为 true,启动自动切换。

dfs.ha.fencing.methods

这里我们把 fencing 方法设置为 shell,一是为了方便测试,二是采用 QJM 方式的 HA 本身就有 fencing 功能,不需要用这个参数中的 fencing 功能,详解请参考《hadoop2.0 QJM 方式的 HA 的配置》一文。你用 sshfence 的方法也是可以的,不过要注意 ssh 连接的问题和一些权限的问题。

3 在 zookeeper 中初始化 

$HADOOP_HOME/bin/hdfs zkfc -formatZK

运行这个命令后,会在 zookeeper 上创建一个 /hadoop-ha/mycluster/ 的 znode,用来存放 automatic failover 的数据。

4 启动 zkfc(zookeeper failover controller) 

需要在 namenode1 和 namenode2 上都启动 zkfc daemon 进程。

$HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc

5 启动 HDFS 

可以参考《Hadoop2.2.0 的安装和基本配置》(见 http://www.linuxidc.com/Linux/2014-05/101173.htm)和《Hadoop2.0 QJM 方式的 HA 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101175.htm)这两篇文章。

在两个 namenode 都启动之后,会发现,其中一个 namenode 会自动切换成 active 状态,不需要手工切换。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-05/101176p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计7252字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7975639
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

  告别 Notion 焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁” 引言 在数字笔记工...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...
你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你 为什么要用宝塔跑分? 宝塔跑分其实就是对 CPU、内存、磁盘、IO 做...
星哥带你玩飞牛NAS-8:有了NAS你可以干什么?软件汇总篇

星哥带你玩飞牛NAS-8:有了NAS你可以干什么?软件汇总篇

星哥带你玩飞牛 NAS-8:有了 NAS 你可以干什么?软件汇总篇 前言 哈喽各位玩友!我是是星哥,不少朋友私...
星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛 NAS-7:手把手教你免费内网穿透 -Cloudflare tunnel 前言 大家好,我是星...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
开源MoneyPrinterTurbo 利用AI大模型,一键生成高清短视频!

开源MoneyPrinterTurbo 利用AI大模型,一键生成高清短视频!

  开源 MoneyPrinterTurbo 利用 AI 大模型,一键生成高清短视频! 在短视频内容...
4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

  4 盘位、4K 输出、J3455、遥控,NAS 硬件入门性价比之王 开篇 在 NAS 市场中,威...
星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的NAS中!

星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的NAS中!

星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的 NAS 中! 大家对「数据安全感」的需求越来越高 ...
240 元左右!五盘位 NAS主机,7 代U硬解4K稳如狗,拓展性碾压同价位

240 元左右!五盘位 NAS主机,7 代U硬解4K稳如狗,拓展性碾压同价位

  240 元左右!五盘位 NAS 主机,7 代 U 硬解 4K 稳如狗,拓展性碾压同价位 在 NA...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...