阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop 2.2.0 HA配置

414次阅读
没有评论

共计 11119 个字符,预计需要花费 28 分钟才能阅读完成。

在文章《Ubuntu 和 CentOS 中分布式配置 Hadoop-2.2.0》(见 http://www.linuxidc.com/Linux/2014-01/95799.htm)介绍了 hadoop 2.2.0 最基本的配置。hadoop 2.2.0 中提供了 HA 的功能,本文在前文的基础上介绍 hadoop 2.2.0HA 的配置。

说明:

下文中的两台 namenode 机器名分别是 namenode1 和 namenode2. 其中 namenode1 为 active node,namenode2 为 standby namenode。

journalnode 机器有三台(注意:至少为三台),分别是 journalnode1,journalnode2,journalnode3。(journalnode 的机器的数量可以是 3,5,7…)

另外,注意保持两台 namenode 的一致性,大部分在 namenode1 上进行的操作,也要在 namenode2 上进行一遍。

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

————————————– 分割线 ————————————–

配置文件

core-site.xml 和 hdfs-site.xml 的相关配置如下:

1、core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://mycluster</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/tmp/hadoop2.2.0</value>
  9. </property>
  10. </configuration>

2、hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>/dfs/data</value>
  13. </property>
  14. <property>
  15. <name>dfs.permissions</name>
  16. <value>false</value>
  17. </property>
  18. <property>
  19. <name>dfs.nameservices</name>
  20. <value>mycluster</value>
  21. </property>
  22. <property>
  23. <name>dfs.ha.namenodes.mycluster</name>
  24. <value>nn1,nn2</value>
  25. </property>
  26. <property>
  27. <name>dfs.namenode.rpc-address.mycluster.nn1</name>
  28. <value>namenode1:8020</value>
  29. </property>
  30. <property>
  31. <name>dfs.namenode.rpc-address.mycluster.nn2</name>
  32. <value>namenode2:8020</value>
  33. </property>
  34. <property>
  35. <name>dfs.namenode.http-address.mycluster.nn1</name>
  36. <value>namenode1:50070</value>
  37. </property>
  38. <property>
  39. <name>dfs.namenode.http-address.mycluster.nn2</name>
  40. <value>namenode2:50070</value>
  41. </property>
  42. <property>
  43. <name>dfs.namenode.shared.edits.dir</name>
  44. <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>
  45. </property>
  46. <property>
  47. <name>dfs.journalnode.edits.dir</name>
  48. <value>/home/dfs/journal</value>
  49. </property>
  50. <property>
  51. <name>dfs.client.failover.proxy.provider.mycluster</name>
  52. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  53. </property>
  54. <property>
  55. <name>dfs.ha.fencing.methods</name>
  56. <value>sshfence</value>
  57. </property>
  58. <property>
  59. <name>dfs.ha.fencing.ssh.private-key-files</name>
  60. <value>/home/root/.ssh/id_rsa</value>
  61. </property>
  62. <property>
  63. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  64. <value>6000</value>
  65. </property>
  66. <property>
  67. <name>dfs.ha.automatic-failover.enabled</name>
  68. <value>false</value>
  69. </property>
  70. </configuration>

重启使配置生效。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-08/105154p2.htm

启动过程:

1、在 journalnode 机器上启动 journalnode

  1. sbin/Hadoop-daemon.sh start journalnode

2、在 namenode 机器上启动 namenode(这里假定 namenode1 为 active,namenode2 为 standby)

 

a)如果是首次启动,在 namenode1 上运行 format 命令:

  1. bin/hadoop namenode -format

b)如果是非首次启动,则在 namenode1 上运行以下命令

  1. bin/hdfs namenode -initializeSharedEdits

c)在 namenode1 上启动 namenode:

  1. sbin/hadoop-daemon.sh start namenode

d)在 namenode2 上运行以下命令:

  1. sbin/hadoop-daemon.sh start namenode -bootstrapStandby

如果失败的话,直接把 namenode1 的 dfs.namenode.name.dir 目录的数据直接拷贝到 namenode2 的 dfs.namenode.name.dir 目录。

 

然后在 namenode2 上启动 namenode:

  1. sbin/hadoop-daemon.sh start namenode

现在,namenode1 和 namenode2 都启动了,都是“standby”状态。

 

e)在 namenode1 上运行命令:

  1. bin/hdfs haadmin -transitionToActive nn1

这样,namenode1 的状态就变成了“active”。

 

3、在 datanode 机器上启动 datanode

  1. sbin/hadoop-daemon.sh start datanode

到此时,hadoop2.0 的 HDFS 就可以正常使用了,并且 HA 功能已经可用。

 

检查

可以通过以下页面查看 active namenode(namenode1) 和 standby namenode(namenode2) 的状态

http://namenode1:50070/dfshealth.jsp

http://namenode2:50070/dfshealth.jsp

另外,可以运行常用的 HDFS shell 命令测试 HDFS 是否正常。

HA 的 failover 测试

停掉 namenode1 的 namenode(模拟 namenode1 挂掉),这时会发现 hdfs 不能用了。

在 namenode2 上运行以下命令:

  1. bin/hdfs haadmin -transitionToActive nn2

运行命令成功后,namenode2 的状态就变成“active”,这时 HDFS 恢复正常。

 

在 namenode1 上运行一下命令做主从切换命令:

  1. bin/hdfs haadmin -failover nn1 nn2

此时 namenode2 的状态就变成“active”,而 namenode1 的状态变成“standby”。

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

在文章《Ubuntu 和 CentOS 中分布式配置 Hadoop-2.2.0》(见 http://www.linuxidc.com/Linux/2014-01/95799.htm)介绍了 hadoop 2.2.0 最基本的配置。hadoop 2.2.0 中提供了 HA 的功能,本文在前文的基础上介绍 hadoop 2.2.0HA 的配置。

说明:

下文中的两台 namenode 机器名分别是 namenode1 和 namenode2. 其中 namenode1 为 active node,namenode2 为 standby namenode。

journalnode 机器有三台(注意:至少为三台),分别是 journalnode1,journalnode2,journalnode3。(journalnode 的机器的数量可以是 3,5,7…)

另外,注意保持两台 namenode 的一致性,大部分在 namenode1 上进行的操作,也要在 namenode2 上进行一遍。

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

————————————– 分割线 ————————————–

配置文件

core-site.xml 和 hdfs-site.xml 的相关配置如下:

1、core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://mycluster</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/tmp/hadoop2.2.0</value>
  9. </property>
  10. </configuration>

2、hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>/dfs/data</value>
  13. </property>
  14. <property>
  15. <name>dfs.permissions</name>
  16. <value>false</value>
  17. </property>
  18. <property>
  19. <name>dfs.nameservices</name>
  20. <value>mycluster</value>
  21. </property>
  22. <property>
  23. <name>dfs.ha.namenodes.mycluster</name>
  24. <value>nn1,nn2</value>
  25. </property>
  26. <property>
  27. <name>dfs.namenode.rpc-address.mycluster.nn1</name>
  28. <value>namenode1:8020</value>
  29. </property>
  30. <property>
  31. <name>dfs.namenode.rpc-address.mycluster.nn2</name>
  32. <value>namenode2:8020</value>
  33. </property>
  34. <property>
  35. <name>dfs.namenode.http-address.mycluster.nn1</name>
  36. <value>namenode1:50070</value>
  37. </property>
  38. <property>
  39. <name>dfs.namenode.http-address.mycluster.nn2</name>
  40. <value>namenode2:50070</value>
  41. </property>
  42. <property>
  43. <name>dfs.namenode.shared.edits.dir</name>
  44. <value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>
  45. </property>
  46. <property>
  47. <name>dfs.journalnode.edits.dir</name>
  48. <value>/home/dfs/journal</value>
  49. </property>
  50. <property>
  51. <name>dfs.client.failover.proxy.provider.mycluster</name>
  52. <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  53. </property>
  54. <property>
  55. <name>dfs.ha.fencing.methods</name>
  56. <value>sshfence</value>
  57. </property>
  58. <property>
  59. <name>dfs.ha.fencing.ssh.private-key-files</name>
  60. <value>/home/root/.ssh/id_rsa</value>
  61. </property>
  62. <property>
  63. <name>dfs.ha.fencing.ssh.connect-timeout</name>
  64. <value>6000</value>
  65. </property>
  66. <property>
  67. <name>dfs.ha.automatic-failover.enabled</name>
  68. <value>false</value>
  69. </property>
  70. </configuration>

重启使配置生效。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-08/105154p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计11119字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7960775
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
安装并使用谷歌AI编程工具Antigravity(亲测有效)

安装并使用谷歌AI编程工具Antigravity(亲测有效)

  安装并使用谷歌 AI 编程工具 Antigravity(亲测有效) 引言 Antigravity...
从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统

从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统

从“纸堆”到“电子化”文档:用这个开源系统打造你的智能文档管理系统 大家好,我是星哥。公司的项目文档存了一堆 ...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
星哥带你玩飞牛NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手!

星哥带你玩飞牛NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手!

星哥带你玩飞牛 NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手! 作为动漫爱好者,你是否还在为...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare 也瘫了连监控都挂,根因藏在哪? 最近两天的互联网堪称“故障...
150元打造低成本NAS小钢炮,捡一块3865U工控板

150元打造低成本NAS小钢炮,捡一块3865U工控板

150 元打造低成本 NAS 小钢炮,捡一块 3865U 工控板 一块二手的熊猫 B3 工控板 3865U,搭...
零成本上线!用 Hugging Face免费服务器+Docker 快速部署HertzBeat 监控平台

零成本上线!用 Hugging Face免费服务器+Docker 快速部署HertzBeat 监控平台

零成本上线!用 Hugging Face 免费服务器 +Docker 快速部署 HertzBeat 监控平台 ...
颠覆 AI 开发效率!开源工具一站式管控 30+大模型ApiKey,秘钥付费+负载均衡全搞定

颠覆 AI 开发效率!开源工具一站式管控 30+大模型ApiKey,秘钥付费+负载均衡全搞定

  颠覆 AI 开发效率!开源工具一站式管控 30+ 大模型 ApiKey,秘钥付费 + 负载均衡全...
浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍 前言 在 AI 自动化快速发展的当下,浏览器早已不再只是...