阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Cloudera Manager5.3.4与CDH5.3.4 离线安装详解

447次阅读
没有评论

共计 18348 个字符,预计需要花费 46 分钟才能阅读完成。

这段时间一直在安装 CDH,安装第三次,终于成功了。第一次问题很多,后面卸载了,由于没有卸载干净导致第二次安装失败。后来索性重装系统了,直接使用了纯净系统进行安装。一个人跑到学院机房去装系统,苦逼惨了。

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

,不扯了,记录下安装流程。

系统环境
操作系统:CentOS 6.5 x64,配置如下:

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

Cloudera Manager:5.3.4    CDH: 5.3.4

前期准备工作(系统环境搭建)
所需软件  cloudera-manager-el6-cm5.3.4_x86_64.tar.gz、mysql-connector-Java-5.1.25-bin.jar
1、设置静态 IP 地址

vi /etc/sysconfig/network-scripts/ifcfg-eth0

由于我重装系统时已经设置了,这里就不设置了。

2、修改主机名

hostname 主机名(当前生效)
vi /etc/sysconfig/network(下次启动生效)
 
[root@Hadoop2 opt]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=hadoop2
GATEWAY=172.23.253.1
NTPSERVERARGS=iburst

由于我重装系统时已经设置了,这里就不设置了。

3、绑定 IP 与 HostName

在 hadoop1 节点上操作

vi /etc/hosts
172.23.253.20 hadoop1
172.23.253.22 hadoop2
172.23.253.23 hadoop3
172.23.253.24 hadoop4
172.23.253.25 hadoop5
172.23.253.26 hadoop6

复制到其它节点(hadoop2~hadoop6)

scp /etc/hosts hadoop2:/etc/
scp /etc/hosts hadoop6:/etc/

4、设置 SSH 免密码登录(所有节点)

1、重新生成密钥(各个节点)

[root@hadoop1 /]# cd /root/.ssh/
[root@hadoop1 .ssh]# ssh-keygen -t rsa
[root@hadoop1 .ssh]# cat id_rsa.pub >> authorized_keys

测试是否成功 ssh localhost
其他其它节点同样的方式生成密钥。
2、设置两两结点间的免密码登录
hadoop2~hadoop6 将自己的公钥复制给对方主机

ssh-copy-id -i hadoop1

hadoop1 复制自己的 authorized_keys 给其他主机 hadoop2~hadoop6,这样都可以互相免密码登录了。

scp /root/.ssh/authorized_keys hadoop2:/root/.ssh/
scp /root/.ssh/authorized_keys hadoop6:/root/.ssh/

5、安装 Oracle 的 Java

CentOS 自带 Open Jdk,不过运行 CDH5 需要使用 Oracle 的 jdk,需要 Java 7 的支持。jdk 安装的时候,一定要采用 rpm 的安装方式,而不要采用 tar 解压的安装方式。因为 rpm 的安装方式,会在 /usr/lib 下新建两个软连接。
首先,卸载自带的 OpenJdk,使用 rpm -qa | grep java 查询 java 相关的包,使用 rpm -e –nodeps 包名卸载掉。
由于是 rpm 包并不需要我们来配置环境变量,我们只需要配置一个全局的 JAVA_HOME 变量即可,执行命令:
echo “JAVA_HOME=/usr/java/latest/” >> /etc/environment
执行命令 java -version 和 javac -version,查看 Jdk 是否安装正确。
1、卸载系统自带 OPEN-JDK(所有节点)

[root@hadoop1 .ssh]# rpm -qa | grep java
java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
tzdata-java-2013g-1.el6.noarch
java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
[root@hadoop1 .ssh]# rpm -e –nodeps java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64 
tzdata-java-2013g-1.el6.noarch java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64

2、安装 Oracle 的 JDK(所有节点)

[root@hadoop1 opt]# rpm -ivh jdk-7u80-linux-x64.rpm
Preparing…                ########################################### [100%]
  1:jdk                    ########################################### [100%]
Unpacking JAR files…
        rt.jar…
        jsse.jar…
        charsets.jar…
        tools.jar…
        localedata.jar…
        jfxrt.jar…
[root@hadoop1 opt]# echo “JAVA_HOME=/usr/java/latest/” >> /etc/environment
[root@hadoop1 opt]# java -version
java version “1.7.0_80”
Java(TM) SE Runtime Environment (build 1.7.0_80-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.80-b11, mixed mode)
[root@hadoop1 opt]# javac -version
javac 1.7.0_80

6、安装和配置 MySql(主节点)

通过 yum install mysql-server 安装 mysql 服务器。
设置开机启动 chkconfig mysqld on,
并启动 mysql 服务 service mysqld start,
并根据提示设置 root 的初始密码:mysqladmin -u root password ‘xxxx’。

[root@hadoop1 opt]# yum install mysql-server
[root@hadoop1 opt]# chkconfig mysqld on
[root@hadoop1 opt]# service mysqld start
[root@hadoop1 opt]# service mysqld status
 
[root@hadoop1 opt]# mysqladmin -u root password ‘liguodong’

进入 mysql 命令行 mysql -uroot -pxxxx,创建以下数据库:

[root@hadoop1 opt]# mysql -uroot -pliguodong
 
mysql> create database hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
Query OK, 1 row affected (0.00 sec)
 
mysql>  create database amon DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
Query OK, 1 row affected (0.00 sec)
 
mysql> create database hue DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
Query OK, 1 row affected (0.00 sec)

设置 root 授权访问以上所有的数据库。

mysql> grant all privileges on *.* to ‘root’@’hadoop1’ identified by ‘liguodong’ with grant option;
Query OK, 0 rows affected (0.00 sec)
 
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)

Cloudera 官方 MySql 配置文档:
http://www.cloudera.com/content/cloudera/en/documentation/core/latest/topics/cm_ig_mysql.html#cmig_topic_5_5

7、关闭防火墙和 SELinux(所有节点)

注意:需要在所有的节点上执行,因为涉及到的端口太多了,临时关闭防火墙是为了安装起来更方便(防火墙会引起 hadoop 相关组件通讯的各种异常。),安装完毕后可以根据需要设置防火墙策略,保证集群安全。
关闭防火墙:
service iptables stop(临时关闭)
chkconfig iptables off(重启后生效)
关闭 SELINUX:
(实际安装过程中发现没有关闭也是可以的,不知道会不会有问题,还需进一步进行验证)
setenforce 0(临时生效)
修改 /etc/selinux/config 下的 SELINUX=disabled(重启后永久生效)

[root@hadoop1 opt]# service iptables stop
iptables:将链设置为政策 ACCEPT:filter                    [确定]
iptables:清除防火墙规则:[确定]
iptables:正在卸载模块:[确定]
[root@hadoop1 opt]# chkconfig iptables off
 
[root@hadoop1 opt]# setenforce 0
[root@hadoop1 opt]# vi /etc/selinux/config
[root@hadoop1 opt]# cat /etc/selinux//config
SELINUXTYPE=targeted
SELINUX=disabled

8、安装和配置 NTP 服务(所有节点)

集群中所有主机必须保持时间同步,如果时间相差较大会引起各种问题。
具体思路如下:
master 节点作为 ntp 服务器与外界对时中心同步时间,随后对所有 datanode 节点提供时间同步服务。所有 datanode 节点以 master 节点为基础同步时间。
所有节点安装相关组件:yum install ntp。
完成后,配置开机启动:chkconfig ntpd on,
检查是否设置成功:chkconfig –list ntpd,其中 2 - 5 为 on 状态就代表成功。

[root@hadoop1 opt]# yum install ntp
[root@hadoop1 opt]# chkconfig ntpd on
[root@hadoop1 opt]# chkconfig –list ntpd
ntpd            0: 关闭  1: 关闭  2: 启用  3: 启用  4: 启用  5: 启用  6: 关闭

配置内网 NTP 服务器(主节点)

在配置之前,先使用 ntpdate 手动同步一下时间,免得本机与对时中心时间差距太大,使得 ntpd 不能正常同步。这里选用 202.112.10.36 作为对时中心,命令如下:ntpdate -u 202.112.10.36。

# ntpdate -u 202.112.10.36
22 Dec 16:52:38 ntpdate[6400]: adjust time server 202.112.10.36 offset 0.012135 sec

ntp 服务只有一个配置文件,配置好就可以。这里只给出有用的配置,不需要的配置都用 #注掉,这里就不在给出。

[root@hadoop1 opt]# vi /etc/ntp.conf
[root@hadoop1 opt]# cat /etc/ntp.conf
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default nomodify notrap 
server 202.112.10.36 prefer
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys

配置文件完成,保存退出。
启动服务,执行如下命令:

[root@hadoop1 opt]# service ntpd start

检查是否成功,用 ntpstat 命令查看同步状态,出现以下状态代表启动成功:

[root@hadoop1 ~]# ntpstat
synchronised to NTP server (202.112.10.36) at stratum 3
  time correct to within 133 ms
  polling server every 1024 s

如果出现异常请等待几分钟,一般等待 5 -10 分钟才能同步。

配置 ntp 客户端(hadoop2~hadoop6)

driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default kod nomodify notrap nopeer noquery
restrict -6 default kod nomodify notrap nopeer noquery
# 这里是主节点 (内网 NTP 服务器) 的主机名或者 ip
server hadoop1
 
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys

保存退出,请求服务器前,请先使用 ntpdate 手动同步一下时间:ntpdate -u hadoop1 (主节点 ntp 服务器)

这里可能出现同步失败的情况,请不要着急,一般是本��的 ntp 服务器还没有正常启动,一般需要等待 5 -10 分钟才可以正常同步。
启动服务:service ntpd start

[root@hadoop2 ~]# ntpdate -u hadoop1
27 Jun 08:14:38 ntpdate[1899]: adjust time server 172.23.253.20 offset 0.000293 sec
 
[root@hadoop2 ~]# service ntpd start
[root@hadoop2 ~]# chkconfig ntpd on

安装与配置 Cloudera Manager Server 和 AgentServer 配置(主节点)

下载地址:http://archive-primary.cloudera.com/cm5/cm/5/(选择适合你的一款)
根据自己的系统选择相应的版本,本次安装选用的是 cloudera-manager-el6-cm5.3.4_x86_64.tar.gz,下载完成后只上传到主节点即可。
然后解压到 /opt 目录下,不能解压到其它地方。
因为 cdh5 的源会默认在 /opt/cloudera/parcel-repo 寻找,怎么制作 cdh5 的本地源文件会在之后介绍。

[root@hadoop1 opt]# tar -zxvf cloudera-manager-el6-cm5.3.4_x86_64.tar.gz

给所有节点添加 cloudera-scm 用户:

[root@hadoop1 lib]# useradd –system –home=/opt/cm-5.3.4/run/cloudera-scm-server/ –no-create-home –shell=/bin/false 
–comment  “Cloudera SCM User” cloudera-scm

为 Cloudera Manager 5 建立数据库:
因为我们用的是 Mysql 数据库,所以我们需要下载 Mysql 的 JDBC 驱动,本次从官网上下载的版本是:mysql-connector-java-5.1.25-bin.jar 放到 /opt/cm-5.3.4/share/cmf/lib/ 目录下。

[root@hadoop1 opt]# mv mysql-connector-java-5.1.25-bin.jar /opt/cm-5.3.4/share/cmf/lib/

然后,建立数据库:

[root@hadoop1 opt]#/opt/cm-5.3.4/share/cmf/schema/scm_prepare_database.sh mysql 
cm -hlocalhost -uroot -pliguodong –scm-host localhost scm scm scm

格式是:scm_prepare_database.sh 数据库类型 数据库 服务器 用户名 密码 –scm-host Cloudera_Manager_Server 所在的机器,后面那三个不知道代表什么,直接照抄官网的了。
开启 Cloudera Manager 5 Server 端:

[root@hadoop1 lib]# /opt/cm-5.3.4/etc/init.d/cloudera-scm-server start

注意:
server 首次启动不要立即关闭或重启,因为首次启动会自动创建相关表以及数据,
如果因为特殊原因中途退出,请先删除所有表以及数据之后再次启动,否则将会出现启动不成功的情况。

Agent 配置(所有节点)

开启 Cloudera Manager 5 Agents 端。
现在主节点修改 /opt/cm-5.3.4/etc/cloudera-scm-agent/config.ini 下面的 serer_host 为主节点的主机名。

[root@hadoop1 lib]# vi /opt/cm-5.3.4/etc/cloudera-scm-agent/config.ini   
server_host=hadoop1

先复制 /opt/cm-5.3.4 到 hadoop2~hadoop6 节点上,

scp -r /opt/cm-5.3.4 hadoop2:/opt/
···
scp -r /opt/cm-5.3.4 hadoop6:/opt/

等待拷贝成功,在所有节点上启动 Agent:(注意必须以管理员权限启动)

[root@hadoop1 lib]# /opt/cm-5.3.4/etc/init.d/cloudera-scm-agent start

浏览器启动 Cloudera Manager 5 控制台(默认端口号是 7180),启动成功就会看到登陆页面。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2016-07/133359p2.htm

Cloudera Manager Server 和 Agent 所有后发先至。也能够进行 CDH5 的安装和配置。
然后,主节点可以通过浏览器访问 7180port 测试(因为 CM Server 需要花时间来启动,可能要等待一会才干訪问),默认的 username 和 password 均为 admin。

制作本地源

先下载 CDH 到本地 http://archive-primary.cloudera.com/cdh5/parcels/5.3.4/,

这里须要下载三样东西。
首先是与自己系统版本号相相应的 parcel 包,然后是 manifest.json 文件。

CDH-5.2.0-1.cdh5.2.0.p0.12-el6.parcel、CDH-5.2.0-1.cdh5.2.0.p0.12-el6.parcel.sha1、manifest.json

下载完毕后。将这两个文件放到 master 节点的 /opt/cloudera/parcel-repo 下(文件夹在安装 Cloudera Manager 5 时已经生成),注意文件夹一个字都不能错。

[root@Hadoop1 parcel-repo]# pwd
/opt/cloudera/parcel-repo
[root@hadoop1 parcel-repo]# ll
总用量 1533188
-rw-r-----. 1 root root 1569930781 627 11:49 CDH-5.3.4-1.cdh5.3.4.p0.4-el6.parcel
-rw-r--r--. 1 root root         41 627 11:49 CDH-5.3.4-1.cdh5.3.4.p0.4-el6.parcel.sha
-rw-r--r--. 1 root root      42475 627 10:18 manifest.json

接下来打开 manifest.json 文件。里面是 json 格式的配置。我们须要的就是与我们系统版本号相相应的 hash 码。因为我们用的是 CentOS6.5,所以找到例如以下位置:
Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

在这个大括号的最下面找到“hash”所相应的值。
Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

将“hash”的值复制下来,然后,将 CDH-5.2.0-1.cdh5.2.0.p0.12-el6.parcel.sha1 文件名称改为 CDH-5.2.0-1.cdh5.2.0.p0.12-el6.parcel.sha。将复制下来的 hash 值替换掉文本中的 hash 值,按理说应该是一致的。保存好了,这样。我们的本地源制作完毕了。
然后的操作就是控制台依照步骤安装就可以。

安装 CDH

打开 http://hadoop1:7180。登陆控制台,默认账户和 password 都是 admin,安装时选择免费版,之后因为 cm5 对中文的支持非常强大,依照提示安装就可以,假设系统配置有什么问题在安装过程中会有提示,依据提示给系统安装组件就能够了。

登录界面

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

选取安装版本号

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

指定安装主机

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

选取本地 Parcel 包

接下来,出现下面包名。说明本地 Parcel 包配置无误,直接点继续就能够了。
Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

集群安装

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

检查主机正确性

接下来是 server 检查。可能会遇到下面问题:

Cloudera 建议将 /proc/sys/vm/swappiness 设置为 0。当前设置为 60。使用 sysctl 命令在执行时更改该设置并编辑 /etc/sysctl.conf 以在重新启动后保存该设置。您能够继续进行安装,但可能会遇到问题。Cloudera Manager 报告您的主机因为交换执行状况不佳。

下面主机受到影响:···

  • 1
  • 2
  • 3

在会受到影响的主机上执行 echo 0 > /proc/sys/vm/swappiness 命令就可以解决。

选择安装服务

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

集群角色分配

普通情况下保持默认就能够了(Cloudera Manager 会依据机器的配置自己主动进行配置,假设须要特殊调整,自行进行设置就能够了)。

集群数据库设置

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

集群审查更改

假设没有其它需求保持默认配置。
Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

最终到安装各个服务的地方了。
注意,这里安装 Hive 的时候可能会报错,因为我们使用了 MySql 作为 hive 的元数据存储。hive 默认没有带 mysql 的驱动。通过下面命令拷贝一个就可以了:

cp /opt/cm-5.3.4/share/cmf/lib/mysql-connector-Java-5.1.25-bin.jar 
/opt/cloudera/parcels/CDH-5.3.4-1.cdh5.3.4.p0.12/lib/hive/lib/

之后再继续安装就不会遇到问题了。

经过漫长的等待后,服务的安装完毕:
Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

安装完毕后,就能够进入集群界面看一下集群的当前状况了。

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

測试

[root@hadoop1 /]# su hdfs
[hdfs@hadoop1 /]$ yarn jar /opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar  pi 100 1000
Number of Maps  = 100
Samples per Map = 1000
Wrote input for Map #0
Wrote input for Map #1
Wrote input for Map #2
Wrote input for Map #3
Wrote input for Map #4
Wrote input for Map #5
Wrote input for Map #6
Wrote input for Map #7
Wrote input for Map #8
Wrote input for Map #9
Wrote input for Map #10

····

15/06/27 22:45:55 INFO mapreduce.Job:  map 100% reduce 0%
15/06/27 22:46:00 INFO mapreduce.Job:  map 100% reduce 100%
15/06/27 22:46:01 INFO mapreduce.Job: Job job_1435378145639_0001 completed successfully
15/06/27 22:46:01 INFO mapreduce.Job: Counters: 49
        Map-Reduce Framework
                Map input records=100
                Map output records=200
                Map output bytes=1800
                Map output materialized bytes=3400
                Input split bytes=14490
                Combine input records=0
                Combine output records=0
                Reduce input groups=2
                Reduce shuffle bytes=3400
                Reduce input records=200
                Reduce output records=0
                Spilled Records=400
                Shuffled Maps =100
                Failed Shuffles=0
                Merged Map outputs=100
                GC time elapsed (ms)=3791
                CPU time spent (ms)=134370
                Physical memory (bytes) snapshot=57824903168
                Virtual memory (bytes) snapshot=160584515584
                Total committed heap usage (bytes)=80012115968
        Shuffle Errors
                BAD_ID=0
                CONNECTION=0
                IO_ERROR=0
                WRONG_LENGTH=0
                WRONG_MAP=0
                WRONG_REDUCE=0
        File Input Format Counters
                Bytes Read=11800
        File Output Format Counters
                Bytes Written=97
Job Finished in 50.543 seconds
Estimated value of Pi is 3.14120000000000000000

查看 mapreduce 作业
Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

检查 Hue

首次登陆 Hue 会让设置一个初试的 username 和 password,设置好,登陆到后台。会做一次检查,一切正常后会提示。

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解
到这里表明我们的集群能够使用了。

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

本文永久更新链接地址:http://www.linuxidc.com/Linux/2016-07/133359.htm

这段时间一直在安装 CDH,安装第三次,终于成功了。第一次问题很多,后面卸载了,由于没有卸载干净导致第二次安装失败。后来索性重装系统了,直接使用了纯净系统进行安装。一个人跑到学院机房去装系统,苦逼惨了。

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

,不扯了,记录下安装流程。

系统环境
操作系统:CentOS 6.5 x64,配置如下:

Cloudera Manager5.3.4 与 CDH5.3.4 离线安装详解

Cloudera Manager:5.3.4    CDH: 5.3.4

前期准备工作(系统环境搭建)
所需软件  cloudera-manager-el6-cm5.3.4_x86_64.tar.gz、mysql-connector-Java-5.1.25-bin.jar
1、设置静态 IP 地址

vi /etc/sysconfig/network-scripts/ifcfg-eth0

由于我重装系统时已经设置了,这里就不设置了。

2、修改主机名

hostname 主机名(当前生效)
vi /etc/sysconfig/network(下次启动生效)
 
[root@Hadoop2 opt]# cat /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=hadoop2
GATEWAY=172.23.253.1
NTPSERVERARGS=iburst

由于我重装系统时已经设置了,这里就不设置了。

3、绑定 IP 与 HostName

在 hadoop1 节点上操作

vi /etc/hosts
172.23.253.20 hadoop1
172.23.253.22 hadoop2
172.23.253.23 hadoop3
172.23.253.24 hadoop4
172.23.253.25 hadoop5
172.23.253.26 hadoop6

复制到其它节点(hadoop2~hadoop6)

scp /etc/hosts hadoop2:/etc/
scp /etc/hosts hadoop6:/etc/

4、设置 SSH 免密码登录(所有节点)

1、重新生成密钥(各个节点)

[root@hadoop1 /]# cd /root/.ssh/
[root@hadoop1 .ssh]# ssh-keygen -t rsa
[root@hadoop1 .ssh]# cat id_rsa.pub >> authorized_keys

测试是否成功 ssh localhost
其他其它节点同样的方式生成密钥。
2、设置两两结点间的免密码登录
hadoop2~hadoop6 将自己的公钥复制给对方主机

ssh-copy-id -i hadoop1

hadoop1 复制自己的 authorized_keys 给其他主机 hadoop2~hadoop6,这样都可以互相免密码登录了。

scp /root/.ssh/authorized_keys hadoop2:/root/.ssh/
scp /root/.ssh/authorized_keys hadoop6:/root/.ssh/

5、安装 Oracle 的 Java

CentOS 自带 Open Jdk,不过运行 CDH5 需要使用 Oracle 的 jdk,需要 Java 7 的支持。jdk 安装的时候,一定要采用 rpm 的安装方式,而不要采用 tar 解压的安装方式。因为 rpm 的安装方式,会在 /usr/lib 下新建两个软连接。
首先,卸载自带的 OpenJdk,使用 rpm -qa | grep java 查询 java 相关的包,使用 rpm -e –nodeps 包名卸载掉。
由于是 rpm 包并不需要我们来配置环境变量,我们只需要配置一个全局的 JAVA_HOME 变量即可,执行命令:
echo “JAVA_HOME=/usr/java/latest/” >> /etc/environment
执行命令 java -version 和 javac -version,查看 Jdk 是否安装正确。
1、卸载系统自带 OPEN-JDK(所有节点)

[root@hadoop1 .ssh]# rpm -qa | grep java
java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
tzdata-java-2013g-1.el6.noarch
java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64
[root@hadoop1 .ssh]# rpm -e –nodeps java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64 
tzdata-java-2013g-1.el6.noarch java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64

2、安装 Oracle 的 JDK(所有节点)

[root@hadoop1 opt]# rpm -ivh jdk-7u80-linux-x64.rpm
Preparing…                ########################################### [100%]
  1:jdk                    ########################################### [100%]
Unpacking JAR files…
        rt.jar…
        jsse.jar…
        charsets.jar…
        tools.jar…
        localedata.jar…
        jfxrt.jar…
[root@hadoop1 opt]# echo “JAVA_HOME=/usr/java/latest/” >> /etc/environment
[root@hadoop1 opt]# java -version
java version “1.7.0_80”
Java(TM) SE Runtime Environment (build 1.7.0_80-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.80-b11, mixed mode)
[root@hadoop1 opt]# javac -version
javac 1.7.0_80

6、安装和配置 MySql(主节点)

通过 yum install mysql-server 安装 mysql 服务器。
设置开机启动 chkconfig mysqld on,
并启动 mysql 服务 service mysqld start,
并根据提示设置 root 的初始密码:mysqladmin -u root password ‘xxxx’。

[root@hadoop1 opt]# yum install mysql-server
[root@hadoop1 opt]# chkconfig mysqld on
[root@hadoop1 opt]# service mysqld start
[root@hadoop1 opt]# service mysqld status
 
[root@hadoop1 opt]# mysqladmin -u root password ‘liguodong’

进入 mysql 命令行 mysql -uroot -pxxxx,创建以下数据库:

[root@hadoop1 opt]# mysql -uroot -pliguodong
 
mysql> create database hive DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
Query OK, 1 row affected (0.00 sec)
 
mysql>  create database amon DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
Query OK, 1 row affected (0.00 sec)
 
mysql> create database hue DEFAULT CHARSET utf8 COLLATE utf8_general_ci;
Query OK, 1 row affected (0.00 sec)

设置 root 授权访问以上所有的数据库。

mysql> grant all privileges on *.* to ‘root’@’hadoop1’ identified by ‘liguodong’ with grant option;
Query OK, 0 rows affected (0.00 sec)
 
mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)

Cloudera 官方 MySql 配置文档:
http://www.cloudera.com/content/cloudera/en/documentation/core/latest/topics/cm_ig_mysql.html#cmig_topic_5_5

7、关闭防火墙和 SELinux(所有节点)

注意:需要在所有的节点上执行,因为涉及到的端口太多了,临时关闭防火墙是为了安装起来更方便(防火墙会引起 hadoop 相关组件通讯的各种异常。),安装完毕后可以根据需要设置防火墙策略,保证集群安全。
关闭防火墙:
service iptables stop(临时关闭)
chkconfig iptables off(重启后生效)
关闭 SELINUX:
(实际安装过程中发现没有关闭也是可以的,不知道会不会有问题,还需进一步进行验证)
setenforce 0(临时生效)
修改 /etc/selinux/config 下的 SELINUX=disabled(重启后永久生效)

[root@hadoop1 opt]# service iptables stop
iptables:将链设置为政策 ACCEPT:filter                    [确定]
iptables:清除防火墙规则:[确定]
iptables:正在卸载模块:[确定]
[root@hadoop1 opt]# chkconfig iptables off
 
[root@hadoop1 opt]# setenforce 0
[root@hadoop1 opt]# vi /etc/selinux/config
[root@hadoop1 opt]# cat /etc/selinux//config
SELINUXTYPE=targeted
SELINUX=disabled

8、安装和配置 NTP 服务(所有节点)

集群中所有主机必须保持时间同步,如果时间相差较大会引起各种问题。
具体思路如下:
master 节点作为 ntp 服务器与外界对时中心同步时间,随后对所有 datanode 节点提供时间同步服务。所有 datanode 节点以 master 节点为基础同步时间。
所有节点安装相关组件:yum install ntp。
完成后,配置开机启动:chkconfig ntpd on,
检查是否设置成功:chkconfig –list ntpd,其中 2 - 5 为 on 状态就代表成功。

[root@hadoop1 opt]# yum install ntp
[root@hadoop1 opt]# chkconfig ntpd on
[root@hadoop1 opt]# chkconfig –list ntpd
ntpd            0: 关闭  1: 关闭  2: 启用  3: 启用  4: 启用  5: 启用  6: 关闭

配置内网 NTP 服务器(主节点)

在配置之前,先使用 ntpdate 手动同步一下时间,免得本机与对时中心时间差距太大,使得 ntpd 不能正常同步。这里选用 202.112.10.36 作为对时中心,命令如下:ntpdate -u 202.112.10.36。

# ntpdate -u 202.112.10.36
22 Dec 16:52:38 ntpdate[6400]: adjust time server 202.112.10.36 offset 0.012135 sec

ntp 服务只有一个配置文件,配置好就可以。这里只给出有用的配置,不需要的配置都用 #注掉,这里就不在给出。

[root@hadoop1 opt]# vi /etc/ntp.conf
[root@hadoop1 opt]# cat /etc/ntp.conf
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default nomodify notrap 
server 202.112.10.36 prefer
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys

配置文件完成,保存退出。
启动服务,执行如下命令:

[root@hadoop1 opt]# service ntpd start

检查是否成功,用 ntpstat 命令查看同步状态,出现以下状态代表启动成功:

[root@hadoop1 ~]# ntpstat
synchronised to NTP server (202.112.10.36) at stratum 3
  time correct to within 133 ms
  polling server every 1024 s

如果出现异常请等待几分钟,一般等待 5 -10 分钟才能同步。

配置 ntp 客户端(hadoop2~hadoop6)

driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default kod nomodify notrap nopeer noquery
restrict -6 default kod nomodify notrap nopeer noquery
# 这里是主节点 (内网 NTP 服务器) 的主机名或者 ip
server hadoop1
 
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys

保存退出,请求服务器前,请先使用 ntpdate 手动同步一下时间:ntpdate -u hadoop1 (主节点 ntp 服务器)

这里可能出现同步失败的情况,请不要着急,一般是本��的 ntp 服务器还没有正常启动,一般需要等待 5 -10 分钟才可以正常同步。
启动服务:service ntpd start

[root@hadoop2 ~]# ntpdate -u hadoop1
27 Jun 08:14:38 ntpdate[1899]: adjust time server 172.23.253.20 offset 0.000293 sec
 
[root@hadoop2 ~]# service ntpd start
[root@hadoop2 ~]# chkconfig ntpd on

安装与配置 Cloudera Manager Server 和 AgentServer 配置(主节点)

下载地址:http://archive-primary.cloudera.com/cm5/cm/5/(选择适合你的一款)
根据自己的系统选择相应的版本,本次安装选用的是 cloudera-manager-el6-cm5.3.4_x86_64.tar.gz,下载完成后只上传到主节点即可。
然后解压到 /opt 目录下,不能解压到其它地方。
因为 cdh5 的源会默认在 /opt/cloudera/parcel-repo 寻找,怎么制作 cdh5 的本地源文件会在之后介绍。

[root@hadoop1 opt]# tar -zxvf cloudera-manager-el6-cm5.3.4_x86_64.tar.gz

给所有节点添加 cloudera-scm 用户:

[root@hadoop1 lib]# useradd –system –home=/opt/cm-5.3.4/run/cloudera-scm-server/ –no-create-home –shell=/bin/false 
–comment  “Cloudera SCM User” cloudera-scm

为 Cloudera Manager 5 建立数据库:
因为我们用的是 Mysql 数据库,所以我们需要下载 Mysql 的 JDBC 驱动,本次从官网上下载的版本是:mysql-connector-java-5.1.25-bin.jar 放到 /opt/cm-5.3.4/share/cmf/lib/ 目录下。

[root@hadoop1 opt]# mv mysql-connector-java-5.1.25-bin.jar /opt/cm-5.3.4/share/cmf/lib/

然后,建立数据库:

[root@hadoop1 opt]#/opt/cm-5.3.4/share/cmf/schema/scm_prepare_database.sh mysql 
cm -hlocalhost -uroot -pliguodong –scm-host localhost scm scm scm

格式是:scm_prepare_database.sh 数据库类型 数据库 服务器 用户名 密码 –scm-host Cloudera_Manager_Server 所在的机器,后面那三个不知道代表什么,直接照抄官网的了。
开启 Cloudera Manager 5 Server 端:

[root@hadoop1 lib]# /opt/cm-5.3.4/etc/init.d/cloudera-scm-server start

注意:
server 首次启动不要立即关闭或重启,因为首次启动会自动创建相关表以及数据,
如果因为特殊原因中途退出,请先删除所有表以及数据之后再次启动,否则将会出现启动不成功的情况。

Agent 配置(所有节点)

开启 Cloudera Manager 5 Agents 端。
现在主节点修改 /opt/cm-5.3.4/etc/cloudera-scm-agent/config.ini 下面的 serer_host 为主节点的主机名。

[root@hadoop1 lib]# vi /opt/cm-5.3.4/etc/cloudera-scm-agent/config.ini   
server_host=hadoop1

先复制 /opt/cm-5.3.4 到 hadoop2~hadoop6 节点上,

scp -r /opt/cm-5.3.4 hadoop2:/opt/
···
scp -r /opt/cm-5.3.4 hadoop6:/opt/

等待拷贝成功,在所有节点上启动 Agent:(注意必须以管理员权限启动)

[root@hadoop1 lib]# /opt/cm-5.3.4/etc/init.d/cloudera-scm-agent start

浏览器启动 Cloudera Manager 5 控制台(默认端口号是 7180),启动成功就会看到登陆页面。

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2016-07/133359p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计18348字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7968734
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
星哥带你玩飞牛NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手!

星哥带你玩飞牛NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手!

星哥带你玩飞牛 NAS-13:自动追番、订阅下载 + 刮削,动漫党彻底解放双手! 作为动漫爱好者,你是否还在为...
恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击

恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击

恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击 PHP-FPM(FastCGl Process M...
【开源神器】微信公众号内容单篇、批量下载软件

【开源神器】微信公众号内容单篇、批量下载软件

【开源神器】微信公众号内容单篇、批量下载软件 大家好,我是星哥,很多人都希望能高效地保存微信公众号的文章,用于...
升级自动部署更新SSL证书系统、申请godaddy的APIKEY

升级自动部署更新SSL证书系统、申请godaddy的APIKEY

升级自动部署更新 SSL 证书系统、申请 godaddy 的 APIKEY 公司之前花钱购买的 ssl 证书快...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
颠覆 AI 开发效率!开源工具一站式管控 30+大模型ApiKey,秘钥付费+负载均衡全搞定

颠覆 AI 开发效率!开源工具一站式管控 30+大模型ApiKey,秘钥付费+负载均衡全搞定

  颠覆 AI 开发效率!开源工具一站式管控 30+ 大模型 ApiKey,秘钥付费 + 负载均衡全...
Prometheus:监控系统的部署与指标收集

Prometheus:监控系统的部署与指标收集

Prometheus:监控系统的部署与指标收集 在云原生体系中,Prometheus 已成为最主流的监控与报警...
开源MoneyPrinterTurbo 利用AI大模型,一键生成高清短视频!

开源MoneyPrinterTurbo 利用AI大模型,一键生成高清短视频!

  开源 MoneyPrinterTurbo 利用 AI 大模型,一键生成高清短视频! 在短视频内容...
手把手教你,购买云服务器并且安装宝塔面板

手把手教你,购买云服务器并且安装宝塔面板

手把手教你,购买云服务器并且安装宝塔面板 前言 大家好,我是星哥。星哥发现很多新手刚接触服务器时,都会被“选购...
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...