阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop2.0 federation与HA的配置

422次阅读
没有评论

共计 11235 个字符,预计需要花费 29 分钟才能阅读完成。

在上一篇文章《Hadoop2.0 federation 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101180.htm)中介绍了单独配置 federation,本文继续介绍同时配置 HA 和 federation。关于 zookeeper 的安装和配置,这里不做介绍,大家可以参考网上的资料。

1 准备 

假定已经有一个 zookeeper 集群,包含 3 个 zookeeper 节点:

  • zookeeper1
  • zookeeper2
  • zookeeper3

另外,还有 4 个 namenode 节点:

  • namenode1
  • namenode2
  • namenode3
  • namenode4

和 3 个 journalnode 节点:

  • journalnode1
  • journalnode2
  • journalnode3

其他机器角色本文中不涉及的可以参考《hadoop2.0 的安装和基本配置》一文。

2 federation 和 HA 的结构 

我们假定 hadoop 集群的 clusterid 是 hellokitty,有 2 个 namespace/name service,分别是“mycluster”和“yourcluster”,分别挂载在 viewfs 的“/my”和“/your”目录下。

“mycluster”和“yourcluster”都配置成 HA。其中“mycluster”的两个主备 namenode 节点分别是 namenode1 和 namenode2,NN_ID 分别是“nn1”和“nn2”;“yourcluster”的两个主备 namenode 节点分别是 namenode3 和 namenode4,NN_ID 分别是的“nn1”和“nn2”。

如下图所示:

Hadoop2.0 federation 与 HA 的配置 

3 federation 和 HA 的配置 

federation 和 HA 的配置只涉及到 core-site.xml 和 hdfs-site.xml 两个配置文件,其他配置可以文件参考《Hadoop2.0 的安装和基本配置》一文(见 http://www.linuxidc.com/Linux/2014-05/101173.htm)。

为了简单起见,我们先不配置 HA 的自动切换,后面再把 HA 的自动切换配置上。

3.1 core-site.xml 

<configuration>

        <property>

                <name>fs.defaultFS</name>

                <value>viewfs:///</value>

        </property>

        <property>

                <name>fs.viewfs.mounttable.default.link./my</name>

                <value>hdfs://mycluster/</value>

        </property>

        <property>

                <name>fs.viewfs.mounttable.default.link./your</name>

                <value>hdfs://yourcluster/</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/tmp/hadoop2.0</value>

        </property>

</configuration>

3.2 hdfs-site.xml 

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

      <property>

                <name>dfs.namenode.name.dir</name>

                <value>/home/dfs/name</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/home/dfs/data</value>

        </property>

        <property>

                <name>dfs.datanode.edit.dir</name>

                <value>/home/dfs/edit</value>

        </property>

        <property>

                <name>dfs.permissions</name>

                <value>false</value>

        </property>

        <property>

                <name>dfs.nameservices</name>

                <value>mycluster,yourcluster</value>

        </property>

        <property>

                <name>dfs.ha.namenodes.mycluster</name>

                <value>nn1,nn2</value>

        </property>

        <property>

                <name>dfs.ha.namenodes.yourcluster</name>

                <value>nn1,nn2</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn1</name>

                <value>namenode1:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn2</name>

                <value>namenode2:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.yourcluster.nn1</name>

                <value>namenode1:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.yourcluster.nn2</name>

                <value>namenode2:8020</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn1</name>

                <value>namenode1:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn2</name>

                <value>namenode2:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.yourcluster.nn1</name>

                <value>namenode1:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.yourcluster.nn2</name>

                <value>namenode2:50070</value>

        </property>

<!–dfs.namenode.shared.edits.dir 的配置在 namenode1 和 namenode2 上用以下这个 –>

        <property>

                <name>dfs.namenode.shared.edits.dir</name>

                <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>

        </property>

<!–dfs.namenode.shared.edits.dir 的配置在 namenode3 和 namenode4 上用以下这个

        <property>

                <name>dfs.namenode.shared.edits.dir</name>

                <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/yourcluster</value>

        </property>

–>

        <property>

                <name>dfs.journalnode.edits.dir</name>

                <value>/home/dfs/journal</value>

        </property>

        <property>     

                <name>dfs.client.failover.proxy.provider.mycluster</name>

                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

        </property>

        <property>

                <name>dfs.client.failover.proxy.provider.yourcluster</name>

                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

        </property>

        <property>

                <name>dfs.ha.fencing.methods</name>

                <value>shell(/bin/true)</value>

        </property>

</configuration>

  • dfs.namenode.shared.edits.dir

这个参数要注意,在两组 HA 中的值是不一样的,即在“mycluster”(namenode1 和 namenode2) 和是“yourcluster”(namenode3 和 namenode4) 中是不同。

 

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-05/101181p2.htm

4 启动

4.1 先启动 journalnode,在 journalnode 节点上执行以下命令

$Hadoop_HOME/sbin/hadoop-daemon.sh start journalnode

4.2 在 namenode1 和 namenode3 上执行格式化命令并启动 namenode

$HADOOP_HOME/bin/hdfs namenode -format –clusterId hellokitty

$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode

4.3 在 namenode2 和 namenode4 上执行 bootstrapStandby 命令并启动 namenode

$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode -bootstrapStandby

$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode

这时 namenode1,namenode2,namenode3,namenode4 四个 namenode 都是“standby”状态。

4.4 在 namenode1 和 namenode3 执行以下命令,切换成“active”状态

$HADOOP_HOME/bin/hdfs haadmin -transitionToActive nn1

4.5 在 datanode 节点上启动 datanode

$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode

5 检查和测试

查看 namenode1,namenode2,namenode3,namenode4 的 HDFS 的监控页面,都能看到所有的 datanode

http://namenode1:50070/dfshealth.jsp

http://namenode2:50070/dfshealth.jsp

http://namenode3:50070/dfshealth.jsp

http://namenode4:50070/dfshealth.jsp

其中 namenode1 和 namenode3 为“active”状态,namenode2 和 namenode4 为“standby”状态。

可以参考《Hadoop2.0 federation 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101180.htm)和《Hadoop2.0 QJM 方式的 HA 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101175.htm)运行 HDFS 命令测试 federation 和 HA 的特性是否生效。

6 配置 HA 的主备自动切换

我们接着通过配置 zookeeper 把 HA 主备自动切换的特性加上。

6.1 在 core-site.xml 加上以下参数

<property>

<name>ha.zookeeper.quorum</name>

<value>zookeeper1:2181,zookeeper2:2181,zookeeper3:2181</value>

</property>

6.2 在 hdfs-site.xml 加上以下参数

<property>

<name>dfs.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

6.3 在 zookeeper 中初始化

$HADOOP_HOME/bin/hdfs zkfc -formatZK

运行这个命令后,会在 zookeeper 上创建一个 /hadoop-ha/mycluster/ 的 znode,用来存放 automatic failover 的数据。

6.4 启动 zkfc daemon 进程

$HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc

在 namenode1,namenode2,namenode3,namenode4 上都启动 zkfc daemon 进程。

这样 2 组 HA 的主备自动切换就配置好了,可以参考《hadoop2.0 HA 的主备自动切换》(见 http://www.linuxidc.com/Linux/2014-05/101176.htm)测试是否生效。

7 实战 tips

federation 并不能解决 namenode 的单点问题,因此在实践中需要给 federation 的每个 namenode 都配置成 HA,才能解决 namenode 的单点问题。

参考资料:

http://hadoop.apache.org/docs/r2.2.0/hadoop-yarn/hadoop-yarn-site/HDFSHighAvailabilityWithQJM.html

http://hadoop.apache.org/docs/r2.2.0/hadoop-project-dist/hadoop-hdfs/Federation.html

 

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

在上一篇文章《Hadoop2.0 federation 的配置》(见 http://www.linuxidc.com/Linux/2014-05/101180.htm)中介绍了单独配置 federation,本文继续介绍同时配置 HA 和 federation。关于 zookeeper 的安装和配置,这里不做介绍,大家可以参考网上的资料。

1 准备 

假定已经有一个 zookeeper 集群,包含 3 个 zookeeper 节点:

  • zookeeper1
  • zookeeper2
  • zookeeper3

另外,还有 4 个 namenode 节点:

  • namenode1
  • namenode2
  • namenode3
  • namenode4

和 3 个 journalnode 节点:

  • journalnode1
  • journalnode2
  • journalnode3

其他机器角色本文中不涉及的可以参考《hadoop2.0 的安装和基本配置》一文。

2 federation 和 HA 的结构 

我们假定 hadoop 集群的 clusterid 是 hellokitty,有 2 个 namespace/name service,分别是“mycluster”和“yourcluster”,分别挂载在 viewfs 的“/my”和“/your”目录下。

“mycluster”和“yourcluster”都配置成 HA。其中“mycluster”的两个主备 namenode 节点分别是 namenode1 和 namenode2,NN_ID 分别是“nn1”和“nn2”;“yourcluster”的两个主备 namenode 节点分别是 namenode3 和 namenode4,NN_ID 分别是的“nn1”和“nn2”。

如下图所示:

Hadoop2.0 federation 与 HA 的配置 

3 federation 和 HA 的配置 

federation 和 HA 的配置只涉及到 core-site.xml 和 hdfs-site.xml 两个配置文件,其他配置可以文件参考《Hadoop2.0 的安装和基本配置》一文(见 http://www.linuxidc.com/Linux/2014-05/101173.htm)。

为了简单起见,我们先不配置 HA 的自动切换,后面再把 HA 的自动切换配置上。

3.1 core-site.xml 

<configuration>

        <property>

                <name>fs.defaultFS</name>

                <value>viewfs:///</value>

        </property>

        <property>

                <name>fs.viewfs.mounttable.default.link./my</name>

                <value>hdfs://mycluster/</value>

        </property>

        <property>

                <name>fs.viewfs.mounttable.default.link./your</name>

                <value>hdfs://yourcluster/</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/tmp/hadoop2.0</value>

        </property>

</configuration>

3.2 hdfs-site.xml 

<configuration>

        <property>

                <name>dfs.replication</name>

                <value>1</value>

        </property>

      <property>

                <name>dfs.namenode.name.dir</name>

                <value>/home/dfs/name</value>

        </property>

        <property>

                <name>dfs.datanode.data.dir</name>

                <value>/home/dfs/data</value>

        </property>

        <property>

                <name>dfs.datanode.edit.dir</name>

                <value>/home/dfs/edit</value>

        </property>

        <property>

                <name>dfs.permissions</name>

                <value>false</value>

        </property>

        <property>

                <name>dfs.nameservices</name>

                <value>mycluster,yourcluster</value>

        </property>

        <property>

                <name>dfs.ha.namenodes.mycluster</name>

                <value>nn1,nn2</value>

        </property>

        <property>

                <name>dfs.ha.namenodes.yourcluster</name>

                <value>nn1,nn2</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn1</name>

                <value>namenode1:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.mycluster.nn2</name>

                <value>namenode2:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.yourcluster.nn1</name>

                <value>namenode1:8020</value>

        </property>

        <property>

                <name>dfs.namenode.rpc-address.yourcluster.nn2</name>

                <value>namenode2:8020</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn1</name>

                <value>namenode1:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.mycluster.nn2</name>

                <value>namenode2:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.yourcluster.nn1</name>

                <value>namenode1:50070</value>

        </property>

        <property>

                <name>dfs.namenode.http-address.yourcluster.nn2</name>

                <value>namenode2:50070</value>

        </property>

<!–dfs.namenode.shared.edits.dir 的配置在 namenode1 和 namenode2 上用以下这个 –>

        <property>

                <name>dfs.namenode.shared.edits.dir</name>

                <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>

        </property>

<!–dfs.namenode.shared.edits.dir 的配置在 namenode3 和 namenode4 上用以下这个

        <property>

                <name>dfs.namenode.shared.edits.dir</name>

                <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/yourcluster</value>

        </property>

–>

        <property>

                <name>dfs.journalnode.edits.dir</name>

                <value>/home/dfs/journal</value>

        </property>

        <property>     

                <name>dfs.client.failover.proxy.provider.mycluster</name>

                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

        </property>

        <property>

                <name>dfs.client.failover.proxy.provider.yourcluster</name>

                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

        </property>

        <property>

                <name>dfs.ha.fencing.methods</name>

                <value>shell(/bin/true)</value>

        </property>

</configuration>

  • dfs.namenode.shared.edits.dir

这个参数要注意,在两组 HA 中的值是不一样的,即在“mycluster”(namenode1 和 namenode2) 和是“yourcluster”(namenode3 和 namenode4) 中是不同。

 

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-05/101181p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计11235字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7961420
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare 也瘫了连监控都挂,根因藏在哪? 最近两天的互联网堪称“故障...
从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统

从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统

从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统 大家好,我是星哥。公司的项目文档存了一堆 ...
三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Android 的最优解?

三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Android 的最优解?

  三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Andr...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装 Black 群晖 DSM7.2 系统安装教程(在 Vmware 虚拟机中、实体机均可)! 前言 大家好,...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛 NAS-12:开源笔记的进化之路,效率玩家的新选择 前言 如何高效管理知识与笔记,已经成为技术...
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地

把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地

把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地 大家好,我是星哥,今天教大家在飞牛 NA...
每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站 - 手机博物馆 -CHAZ 3D Experience 一句话介绍:一个用 3D 方式重温...
150元打造低成本NAS小钢炮,捡一块3865U工控板

150元打造低成本NAS小钢炮,捡一块3865U工控板

150 元打造低成本 NAS 小钢炮,捡一块 3865U 工控板 一块二手的熊猫 B3 工控板 3865U,搭...