共计 1024 个字符,预计需要花费 3 分钟才能阅读完成。
终于成功搭建完毕 Hadoop 完全分布式环境。其中耽误时间最长的是 datanode 无法启动。其实是自己的低级错误。
3 台虚拟机,一台 master,两台 salve。
第一次错误,查看日志,是 hdfs-site.xml 文件配置拼写错误。
第二次到第 N 次 都是 slave 无法连接到 master,以下是我检查的方向:
1.master 和 slave 的防火墙确认是关闭的。
2. 再次检查配置文件:fs.default.name 和 mapred.job.tracker 的 value 值 master 和 ip 都试试。
3. 再第一次发生错误修改完毕后,format namenode 时无法成功,这是因为配置的 dfs.name.dir 和 dfs.data.dir 文件目录没有删除,需要手动删除 master 和 slave 的相关文件夹。
4.ssh 连接。配置完 ssh 无密码登陆之后,需要连接一次(第一次连接会让你输入 yes?),这正是我花费时间最长的地方。master 连接 slave,slave 也要连接 master。之后再 format,启动 hadoop,jps 查看进程 成功启动。
从这次搭建环境中,学会了试着分析日志找到问题,同时通过一步步排除可能的原因得到最后的原因。
相关阅读 :
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm
更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13