阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop1.1.2集群搭建详细实例

420次阅读
没有评论

共计 18238 个字符,预计需要花费 46 分钟才能阅读完成。

最近因为公司准备将数据迁移到 Hbase 上,所以不得不学习 Hadoop,我们尝试过将数据迁移到mongodb 上面,周末在家里做了一个小试验,使用 Java+mongodb 做爬虫抓取数据,我将 mongodb 安装在 CentOS6.3 虚拟机上,分配 1G 的内存,开始抓数据,半小时后,虚拟机内存吃光,没有办法解决内存问题,网上很多人说没有 32G 的内存不要玩 mongodb,这样的说法很搞笑,难道我将1T 的数据都放在内存上,不是坑么,所以说这是我们为什么选择 Hbase 的原因之一。

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

Hadoop LZO 安装教程 http://www.linuxidc.com/Linux/2013-01/78397.htm

Hadoop 集群上使用 Lzo 压缩 http://www.linuxidc.com/Linux/2012-05/60554.htm

————————————– 分割线 ————————————–

软件环境

使用虚拟机安装,centos 6.3jdk-7u45-linux-i586.rpmhadoop-1.1.2.tar.gzhbase-0.96.1.1-hadoop1-bin.tar.gz zookeeper-3.4.5-1374045102000.tar.gz

 

第一步,配置网络

1、配置IP

使用 ifconfig 查看 IP,可以使用vi /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-eth0 为网卡,根据自己的需求配置,如下:

DEVICE=eth0

BOOTPROTO=static

ONBOOT=yes

IPADDR=192.168.1.110

NETMASK=255.255.255.0

TYPE=Ethernet

GATEWAY=192.168.1.1

里面 MAC 地址不需要修改。

 

2、配置主机名 networkDNS

使用vi /etc/sysconfig/network,修改主机名与网关,这里的网关可填可不填,如下

NETWORKING=yes

NETWORKING_IPV6=no

HOSTNAME=master

GATEWAY=192.168.1.1

使用 vi /etc/resolv.conf ,添加DNS,这里可以添加你省内常用的DNS,什么8.8.8.8 就算了,太慢了,添加 DNS 为了使用 yum 安装程序,如下

nameserver 202.106.0.20

nameserver 192.168.1.1

配置vi /etc/hosts 文件,如下

192.168.1.110master

192.168.1.111node1

192.168.1.112node2

Hadoop1.1.2 集群搭建详细实例

3、配置 yum 源与安装基础软件包

配置 yum 源,为了更方便的安装程序包,我使用的是 163 的源,国内比较快,当然你也可以不配置 yum 源,下载 CentOS-Base.repo,地址:http://mirrors.163.com/.help/centos.html,上传yum 文件夹中的文件到 /etc/yum.repos.d 中,覆盖文件,然后 yum makecache 更新源,使用 yum 源安装:

# yum -y install lrzsz gcc gcc-c++ libstdc++-devel ntp 安装配置文件

4、同步时间与地区

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

Hadoop1.1.2 集群搭建详细实例

将地区配置为上海,再使用 ntpdate 更新时间,再使用crontab -e,添加如下

# 30 23 * * * /usr/sbin/ntpdate cn.pool.ntp.org ; hwclock -w

每天晚上 23:30 更新一下时间

5、关闭防火墙,SELINUX=disable

# service iptables stop

# vi /etc/selinux/config

SELINUX=disabled

第二步,安装java,配置ssh,添加用户

1、安装java1.7

将所有的软件包都放到 /opt 文件夹中

# chmod -R 777 /opt

# rpm -ivh jdk-7u45-linux-i586.rpm

[root@master opt]# vi /etc/profile.d/java_hadoop.sh

export JAVA_HOME=/usr/java/jdk1.7.0_45/

export PATH=$PATH:$JAVA_HOME/bin

[root@master opt]# source /etc/profile

[root@master opt]# echo $JAVA_HOME

/usr/java/jdk1.7.0_45/

 

Hadoop1.1.2 集群搭建详细实例

Hadoop1.1.2 集群搭建详细实例

 

2、添加 hadoop 用户,配置无 ssh 登录

# groupadd hadoop

# useradd hadoop -g hadoop

# su hadoop

$ ssh-keygen -t dsa -P ” -f /home/hadoop/.ssh/id_dsa

$ cp id_dsa.pub authorized_keys

$ chmod go-wx authorized_keys

[hadoop@master .ssh]$ ssh master

Last login: Sun Mar 23 23:16:00 2014 from 192.168.1.110

 

做到了以上工作,就可以开始安装 hadoop 了。

为要选择使用hadoop1,可以去看看http://www.linuxidc.com/Linux/2014-05/101838.htm ,就是因为产品比较成熟,稳定。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-05/101837p2.htm

开始安装:

[root@master opt]# ls

Hadoop-1.1.2.tar.gz

hbase-0.96.1.1-hadoop1-bin.tar.gz

zookeeper-3.4.5-1374045102000.tar.gz

#将需要的文件与安装包上传,hbase要与 hadoop 版本一致,在hbase/lib/hadoop-core-1.1.2.jar,为正确。

[root@master opt]# mkdir -p /opt/modules/hadoop/

[root@master hadoop]# chown -R hadoop:hadoop /opt/modules/hadoop/*

[root@master hadoop]# ll

total 148232

-rwxrwxrwx 1 hadoop hadoop 61927560 Oct 29 11:16 hadoop-1.1.2.tar.gz

-rwxrwxrwx 1 hadoop hadoop 73285670 Mar 24 12:57 hbase-0.96.1.1-hadoop1-bin.tar.gz

-rwxrwxrwx 1 hadoop hadoop 16402010 Mar 24 12:57 zookeeper-3.4.5-1374045102000.tar.gz

#新建 /opt/modules/hadoop/ 文件夹,把需要的软件包都复制到文件夹下,将文件夹的权限使用者配置为 hadoop 用户组和 hadoop 用户,其实这一步可以最后来做。

[root@master hadoop]# tar -zxvf hadoop-1.1.2.tar.gz

#解压 hadoop-1.1.2.tar.gz 文件

[root@master hadoop]# cat /etc/profile.d/Java_hadoop.sh

export JAVA_HOME=/usr/java/jdk1.7.0_45/

export HADOOP_HOME=/opt/modules/hadoop/hadoop-1.1.2/

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

#使用 vi,新建一下HADOOP_HOME 的变量,名称不能自定义(不然会很麻烦)。

[root@master opt]# source /etc/profile

#更新环境变量。

[root@master hadoop]# echo $HADOOP_HOME

/opt/modules/hadoop/hadoop-1.1.2

#打印一下$HADOOP_HOME,就输出了我们的地址。

 

[hadoop@master conf]$ vi /opt/modules/hadoop/hadoop-1.1.2/conf/hadoop-env.sh

export HADOOP_HEAPSIZE=64

#这里是内存大少的配置,我的虚拟机配置为64m

[root@master conf]# mkdir -p /data/

#新建一下 data 文件夹,准备将所有的数据,存放在这个文件夹下。

[root@master conf]# mkdir -p /data/hadoop/hdfs/data

[root@master conf]# mkdir -p /data/hadoop/hdfs/name

[root@master conf]# mkdir -p /data/hadoop/hdfs/namesecondary/

[hadoop@master bin]$ mkdir -p /data/hadoop/mapred/mrlocal

[hadoop@master bin]$ mkdir -p /data/hadoop/mapred/mrsystem

[root@master conf]#su

#切换到 root 用户,不然是不可以修改权限的。

[root@master conf]# chown -R hadoop:hadoop /data/

#data 文件夹的权限使用者配置为 hadoop 用户组和 hadoop 用户

[root@master conf]# su hadoop

#切换到 hadoop 用户

[hadoop@master conf]$ chmod go-w /data/hadoop/hdfs/data/

#这里步非常重要,就是去除其他用户写入 hdfs 数据,可以配置为755

[hadoop@master conf]$ ll /data/hadoop/hdfs/

drwxr-xr-x 2 hadoop hadoop 4096 Mar 24 13:21 data

drwxrwxr-x 2 hadoop hadoop 4096 Mar 24 13:21 name

drwxrwxr-x 2 hadoop hadoop 4096 Mar 24 13:20 namesecondary

接下来就配置 xml 文件:

[hadoop@master conf]$ cd /opt/modules/hadoop/hadoop-1.1.2/conf

[hadoop@master conf]$ vi core-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”https://www.linuxidc.com/Linux/2014-05/configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://master:9000</value>

</property>

<property>

<name>fs.checkpoint.dir</name>

<value>/data/hadoop/hdfs/namesecondary</value>

</property>

<property>

<name>fs.checkpoint.period</name>

<value>1800</value>

</property>

<property>

<name>fs.checkpoint.size</name>

<value>33554432</value>

</property>

<property>

<name>io.compression.codecs</name>

<value>org.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoop.io.compress.GzipCodec,org.apache

.hadoop.io.compress.BZip2Codec</value>

</property>

<property>

<name>fs.trash.interval</name>

<value>1440</value>

</property>

</configuration>

[hadoop@master conf]$ vi hdfs-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”https://www.linuxidc.com/Linux/2014-05/configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

<name>dfs.name.dir</name>

<value>/data/hadoop/hdfs/name</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/data/hadoop/hdfs/data</value>

<description> </description>

</property>

<property>

<name>dfs.http.address</name>

<value>master:50070</value>

</property>

<property>

<name>dfs.secondary.http.address</name>

<value>node1:50090</value>

</property>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.datanode.du.reserved</name>

<value>873741824</value>

</property>

<property>

<name>dfs.block.size</name>

<value>134217728</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

[hadoop@master conf]$ vi mapred-site.xml

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”https://www.linuxidc.com/Linux/2014-05/configuration.xsl”?>

<!– Put site-specific property overrides in this file. –>

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>master:9001</value>

</property>

<property>

<name>mapred.local.dir</name>

<value>/data/hadoop/mapred/mrlocal</value>

<final>true</final>

</property>

<property>

<name>mapred.system.dir</name>

<value>/data/hadoop/mapred/mrsystem</value>

<final>true</final>

</property>

<property>

<name>mapred.tasktracker.map.tasks.maximum</name>

<value>2</value>

<final>true</final>

</property>

<property>

<name>mapred.tasktracker.reduce.tasks.maximum</name>

<value>1</value>

<final>true</final>

</property>

<property>

<name>io.sort.mb</name>

<value>32</value>

<final>true</final>

</property>

<property>

<name>mapred.child.java.opts</name>

<value>-Xmx128M</value>

</property>

<property>

<name>mapred.compress.map.output</name>

<value>true</value>

</property>

</configuration>

#配置文件完成

#切换到 master 主机,开启

[root@master hadoop]# vi/opt/modules/hadoop/hadoop-1.1.2/conf/masters

node1

node2

[root@master hadoop]# vi/opt/modules/hadoop/hadoop-1.1.2/conf/slaves

master

node1

node2

#节点配置,这里很重要,masters文件不需要把 masters 加入

最近因为公司准备将数据迁移到 Hbase 上,所以不得不学习 Hadoop,我们尝试过将数据迁移到mongodb 上面,周末在家里做了一个小试验,使用 Java+mongodb 做爬虫抓取数据,我将 mongodb 安装在 CentOS6.3 虚拟机上,分配 1G 的内存,开始抓数据,半小时后,虚拟机内存吃光,没有办法解决内存问题,网上很多人说没有 32G 的内存不要玩 mongodb,这样的说法很搞笑,难道我将1T 的数据都放在内存上,不是坑么,所以说这是我们为什么选择 Hbase 的原因之一。

————————————– 分割线 ————————————–

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

Hadoop LZO 安装教程 http://www.linuxidc.com/Linux/2013-01/78397.htm

Hadoop 集群上使用 Lzo 压缩 http://www.linuxidc.com/Linux/2012-05/60554.htm

————————————– 分割线 ————————————–

软件环境

使用虚拟机安装,centos 6.3jdk-7u45-linux-i586.rpmhadoop-1.1.2.tar.gzhbase-0.96.1.1-hadoop1-bin.tar.gz zookeeper-3.4.5-1374045102000.tar.gz

 

第一步,配置网络

1、配置IP

使用 ifconfig 查看 IP,可以使用vi /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-eth0 为网卡,根据自己的需求配置,如下:

DEVICE=eth0

BOOTPROTO=static

ONBOOT=yes

IPADDR=192.168.1.110

NETMASK=255.255.255.0

TYPE=Ethernet

GATEWAY=192.168.1.1

里面 MAC 地址不需要修改。

 

2、配置主机名 networkDNS

使用vi /etc/sysconfig/network,修改主机名与网关,这里的网关可填可不填,如下

NETWORKING=yes

NETWORKING_IPV6=no

HOSTNAME=master

GATEWAY=192.168.1.1

使用 vi /etc/resolv.conf ,添加DNS,这里可以添加你省内常用的DNS,什么8.8.8.8 就算了,太慢了,添加 DNS 为了使用 yum 安装程序,如下

nameserver 202.106.0.20

nameserver 192.168.1.1

配置vi /etc/hosts 文件,如下

192.168.1.110master

192.168.1.111node1

192.168.1.112node2

Hadoop1.1.2 集群搭建详细实例

3、配置 yum 源与安装基础软件包

配置 yum 源,为了更方便的安装程序包,我使用的是 163 的源,国内比较快,当然你也可以不配置 yum 源,下载 CentOS-Base.repo,地址:http://mirrors.163.com/.help/centos.html,上传yum 文件夹中的文件到 /etc/yum.repos.d 中,覆盖文件,然后 yum makecache 更新源,使用 yum 源安装:

# yum -y install lrzsz gcc gcc-c++ libstdc++-devel ntp 安装配置文件

4、同步时间与地区

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

Hadoop1.1.2 集群搭建详细实例

将地区配置为上海,再使用 ntpdate 更新时间,再使用crontab -e,添加如下

# 30 23 * * * /usr/sbin/ntpdate cn.pool.ntp.org ; hwclock -w

每天晚上 23:30 更新一下时间

5、关闭防火墙,SELINUX=disable

# service iptables stop

# vi /etc/selinux/config

SELINUX=disabled

第二步,安装java,配置ssh,添加用户

1、安装java1.7

将所有的软件包都放到 /opt 文件夹中

# chmod -R 777 /opt

# rpm -ivh jdk-7u45-linux-i586.rpm

[root@master opt]# vi /etc/profile.d/java_hadoop.sh

export JAVA_HOME=/usr/java/jdk1.7.0_45/

export PATH=$PATH:$JAVA_HOME/bin

[root@master opt]# source /etc/profile

[root@master opt]# echo $JAVA_HOME

/usr/java/jdk1.7.0_45/

 

Hadoop1.1.2 集群搭建详细实例

Hadoop1.1.2 集群搭建详细实例

 

2、添加 hadoop 用户,配置无 ssh 登录

# groupadd hadoop

# useradd hadoop -g hadoop

# su hadoop

$ ssh-keygen -t dsa -P ” -f /home/hadoop/.ssh/id_dsa

$ cp id_dsa.pub authorized_keys

$ chmod go-wx authorized_keys

[hadoop@master .ssh]$ ssh master

Last login: Sun Mar 23 23:16:00 2014 from 192.168.1.110

 

做到了以上工作,就可以开始安装 hadoop 了。

为要选择使用hadoop1,可以去看看http://www.linuxidc.com/Linux/2014-05/101838.htm ,就是因为产品比较成熟,稳定。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-05/101837p2.htm

Hadoop1.1.2node1node2 配置开始

前面的网络的配置我就不说了:

#登录master,将authorized_keys,发过去

[root@master ~]# scp /home/hadoop/.ssh/authorized_keys root@node1:/home/hadoop/.ssh/

[root@master ~]# scp /home/hadoop/.ssh/authorized_keys root@node1:/home/hadoop/.ssh/

The authenticity of host ‘node1 (192.168.1.111)’ can’t be established.

RSA key fingerprint is 0d:aa:04:89:28:44:b9:e8:bb:5e:06:d0:dc:de:22:85.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added ‘node1,192.168.1.111’ (RSA) to the list of known hosts.

root@node1’s password:

#切换到 node1 主机

[root@master ~]# su hadoop

[hadoop@master root]$ ssh master

Last login: Sun Mar 23 23:17:06 2014 from 192.168.1.110

[root@master hadoop]# vi/opt/modules/hadoop/hadoop-1.1.2/conf/masters

node1

node2

[root@master hadoop]# vi/opt/modules/hadoop/hadoop-1.1.2/conf/slaves

master

node1

node2

#切换到 master 主机,开启

[hadoop@master conf]$ hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.

 

14/03/24 13:33:52 INFO namenode.NameNode: STARTUP_MSG:

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG: host = master/192.168.1.110

STARTUP_MSG: args = [-format]

STARTUP_MSG: version = 1.1.2

STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782; compiled by ‘hortonfo’ on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

Re-format filesystem in /data/hadoop/hdfs/name ? (Y or N) Y

14/03/24 13:33:54 INFO util.GSet: VM type = 32-bit

14/03/24 13:33:54 INFO util.GSet: 2% max memory = 0.61875 MB

14/03/24 13:33:54 INFO util.GSet: capacity = 2^17 = 131072 entries

14/03/24 13:33:54 INFO util.GSet: recommended=131072, actual=131072

14/03/24 13:33:55 INFO namenode.FSNamesystem: fsOwner=hadoop

14/03/24 13:33:55 INFO namenode.FSNamesystem: supergroup=supergroup

14/03/24 13:33:55 INFO namenode.FSNamesystem: isPermissionEnabled=false

14/03/24 13:33:55 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

14/03/24 13:33:55 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

14/03/24 13:33:55 INFO namenode.NameNode: Caching file names occuring more than 10 times

14/03/24 13:33:55 INFO common.Storage: Image file of size 112 saved in 0 seconds.

14/03/24 13:33:56 INFO namenode.FSEditLog: closing edit log: position=4, editlog=/data/hadoop/hdfs/name/current/edits

14/03/24 13:33:56 INFO namenode.FSEditLog: close success: truncate to 4, editlog=/data/hadoop/hdfs/name/current/edits

14/03/24 13:33:56 INFO common.Storage: Storage directory /data/hadoop/hdfs/name has been successfully formatted.

14/03/24 13:33:56 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at master/192.168.1.110

************************************************************/

[hadoop@master bin]$ start-all.sh

[hadoop@master bin]$ jps

7603 TaskTracker

7241 DataNode

7119 NameNode

7647 Jps

7473 JobTracker

zookeeper-3.4.5配置开始

#master 机器上安装,为namenode

[root@master hadoop]# tar -zxvf zookeeper-3.4.5-1374045102000.tar.gz

[root@master hadoop]# chown -R hadoop:hadoop zookeeper-3.4.5

[root@master hadoop]# vi /opt/modules/hadoop/zookeeper-3.4.5/conf/zoo.cfg

# The number of milliseconds of each tick

tickTime=2000

# The number of ticks that the initial

# synchronization phase can take

initLimit=10

# The number of ticks that can pass between

# sending a request and getting an acknowledgement

syncLimit=5

# the directory where the snapshot is stored.

# do not use /tmp for storage, /tmp here is just

# example sakes.

dataDir=/data/zookeeper

# the port at which the clients will connect

clientPort=2181

server.1=192.168.1.110:2888:3888

server.2=192.168.1.111:2888:3888

server.3=192.168.1.112:2888:3888

#新建文件 myid(zoo.cfg 配置的 dataDir 目录下,此处为 /home/hadoop/zookeeper),使得myid 中的值与 server 的编号相同,比如 namenode 上的 myid1datanode1 上的myid2。以此类推。

# Be sure to read the maintenance section of the

# administrator guide before turning on autopurge.

#

# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance

#

# The number of snapshots to retain in dataDir

#autopurge.snapRetainCount=3

# Purge task interval in hours

# Set to “0” to disable auto purge feature

#autopurge.purgeInterval=1

#开始配置。

[root@master hadoop]# mkdir -p /data/zookeeper/

[root@master hadoop]# chown -R hadoop:hadoop /data/zookeeper/

[root@master hadoop]# echo “1” > /data/zookeeper/myid

[root@master hadoop]# cat /data/zookeeper/myid

1

[root@node1 zookeeper-3.4.5]# chown -R hadoop:hadoop /data/zookeeper/*

[root@master hadoop]# scp -r /opt/modules/hadoop/zookeeper-3.4.5/ root@node1:/opt/modules/hadoop/

#/opt/modules/hadoop/zookeeper-3.4.5 发送到 node1 节点,新增一个 myid2

#切换到node1

[root@node1 data]# echo “2” > /data/zookeeper/myid

[root@node1 data]# cat /data/zookeeper/myid

2

[root@node1 zookeeper-3.4.5]# chown -R hadoop:hadoop /opt/modules/hadoop/zookeeper-3.4.5

[root@node1 zookeeper-3.4.5]# chown -R hadoop:hadoop /data/zookeeper/*

#切换到master

[root@master hadoop]# su hadoop

[hadoop@master hadoop]$ cd zookeeper-3.4.5

[hadoop@master bin]$ ./zkServer.sh start

JMX enabled by default

Using config: /opt/modules/hadoop/zookeeper-3.4.5/bin/../conf/zoo.cfg

Starting zookeeper … STARTED

[hadoop@master bin]$ jps

5507 NameNode

5766 JobTracker

6392 Jps

6373 QuorumPeerMain

5890 TaskTracker

5626 DataNode

[root@node1 zookeeper-3.4.5]# su hadoop

[hadoop@node1 zookeeper-3.4.5]$ cd bin/

[hadoop@node1 bin]$ ./zkServer.sh start

JMX enabled by default

Using config: /opt/modules/hadoop/zookeeper-3.4.5/bin/../conf/zoo.cfg

Starting zookeeper … STARTED

[hadoop@node1 bin]$ jps

5023 SecondaryNameNode

5120 TaskTracker

5445 Jps

4927 DataNode

5415 QuorumPeerMain

#两边开启之后,就测试一下 Mode: follower 代表正常

[hadoop@master bin]$ ./zkServer.sh status

JMX enabled by default

Using config: /opt/modules/hadoop/zookeeper-3.4.5/bin/../conf/zoo.cfg

Mode: follower

———————————–zookeeper-3.4.5配置结束———————————–

[root@master ~]# su hadoop

[hadoop@master root]$ cd /opt/modules/hadoop/zookeeper-3.4.5/bin/

[hadoop@master bin]$ ./zkServer.sh start

hbase配置开始,三台机器都需要的

[root@master Hadoop]# tar -zxvf hbase-0.96.1.1-hadoop1-bin.tar.gz

#解压文件

[root@master hadoop]# vi /etc/profile.d/Java_hadoop.sh

export JAVA_HOME=/usr/java/jdk1.7.0_45/

export HADOOP_HOME=/opt/modules/hadoop/hadoop-1.1.2/

export HBASE_HOME=/opt/modules/hadoop/hbase-0.96.1.1/

export HBASE_CLASSPATH=/opt/modules/hadoop/hadoop-1.1.2/conf/

export HBASE_MANAGES_ZK=true

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin

#配置环境变量。

[root@master hadoop]# source /etc/profile

[root@master hadoop]# echo $HBASE_CLASSPATH

/opt/modules/hadoop/hadoop-1.1.2/conf/

[root@master conf]# vi /opt/modules/hadoop/hbase-0.96.1.1/conf/hbase-site.xml

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://master:9000/hbase</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>master,node1,node2</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/data/zookeeper</value>

</property>

</configuration>

[root@master conf]# cat /opt/modules/hadoop/hbase-0.96.1.1/conf/regionservers

master

node1

node2

[root@master conf]# chown -R hadoop:hadoop /opt/modules/hadoop/hbase-0.96.1.1

[root@master hadoop]# su hadoop

[hadoop@master hadoop]$ ll

total 148244

drwxr-xr-x 16 hadoop hadoop 4096 Mar 24 13:36 hadoop-1.1.2

-rwxrwxrwx 1 hadoop hadoop 61927560 Oct 29 11:16 hadoop-1.1.2.tar.gz

drwxr-xr-x 7 hadoop hadoop 4096 Mar 24 22:40 hbase-0.96.1.1

-rwxrwxrwx 1 hadoop hadoop 73285670 Mar 24 12:57 hbase-0.96.1.1-hadoop1-bin.tar.gz

drwxr-xr-x 10 hadoop hadoop 4096 Nov 5 2012 zookeeper-3.4.5

-rwxrwxrwx 1 hadoop hadoop 16402010 Mar 24 12:57 zookeeper-3.4.5-1374045102000.tar.gz

[root@master hadoop]$ scp -r hbase-0.96.1.1 node1:/opt/modules/hadoop

[root@master hadoop]$ scp -r hbase-0.96.1.1 node2:/opt/modules/hadoop

[root@node1 hadoop]# chown -R hadoop:hadoop /opt/modules/hadoop/hbase-0.96.1.1

[root@node2 hadoop]# chown -R hadoop:hadoop /opt/modules/hadoop/hbase-0.96.1.1

[root@node2 hadoop]# su hadoop

[hadoop@node2 bin]$ hbase shell

#进入hbase

[root@master conf]# jps

17616 QuorumPeerMain

20282 HRegionServer

20101 HMaster

9858 JobTracker

9712 DataNode

9591 NameNode

29655 Jps

9982 TaskTracker

 

Hadoop1.1.2 集群搭建详细实例

Hadoop1.1.2 集群搭建详细实例

Hadoop1.1.2 集群搭建详细实例

第一次写这么多,我上传了一些文件,测试,详细的命令我就不写了,可能无法安装成功,权限是很重要的问题,准备录制一个视频,写成 shell,给同事或网友学习。

 

所有的配置文件及安装包下载地址:http://pan.baidu.com/s/1kTqj9np

 

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计18238字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7990567
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...
CSDN,你是老太太喝粥——无齿下流!

CSDN,你是老太太喝粥——无齿下流!

CSDN,你是老太太喝粥——无齿下流! 大家好,我是星哥,今天才思枯竭,不写技术文章了!来吐槽一下 CSDN。...
4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

4盘位、4K输出、J3455、遥控,NAS硬件入门性价比之王

  4 盘位、4K 输出、J3455、遥控,NAS 硬件入门性价比之王 开篇 在 NAS 市场中,威...
12.2K Star 爆火!开源免费的 FileConverter:右键一键搞定音视频 / 图片 / 文档转换,告别多工具切换

12.2K Star 爆火!开源免费的 FileConverter:右键一键搞定音视频 / 图片 / 文档转换,告别多工具切换

12.2K Star 爆火!开源免费的 FileConverter:右键一键搞定音视频 / 图片 / 文档转换...
零成本上线!用 Hugging Face免费服务器+Docker 快速部署HertzBeat 监控平台

零成本上线!用 Hugging Face免费服务器+Docker 快速部署HertzBeat 监控平台

零成本上线!用 Hugging Face 免费服务器 +Docker 快速部署 HertzBeat 监控平台 ...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的NAS中!

星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的NAS中!

星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的 NAS 中! 大家对「数据安全感」的需求越来越高 ...
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

还在忍受动辄数百兆的“全家桶”监控软件?后台偷占资源、界面杂乱冗余,想查个 CPU 温度都要层层点选? 今天给...
12.2K Star 爆火!开源免费的 FileConverter:右键一键搞定音视频 / 图片 / 文档转换,告别多工具切换

12.2K Star 爆火!开源免费的 FileConverter:右键一键搞定音视频 / 图片 / 文档转换,告别多工具切换

12.2K Star 爆火!开源免费的 FileConverter:右键一键搞定音视频 / 图片 / 文档转换...
多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞...