阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

使用fabric解决百度BMR的spark集群各节点的部署问题

471次阅读
没有评论

共计 3223 个字符,预计需要花费 9 分钟才能阅读完成。

前言

和小伙伴的一起参加的人工智能比赛进入了决赛之后的一段时间里面,一直在构思将数据预处理过程和深度学习这个阶段合并起来。然而在合并这两部分代码的时候,遇到了一些问题,为此还特意写了脚本文件进行处理。现在比赛过去,我觉得应该把这部分的东西写出来,看看是否有其他朋友会遇到这方面问题,希望对他们有帮助。如有不对之处,请大家指正,谢谢!

比赛遇到的集群各节点的部署痛点

一个前提

在初赛的时候,为了快捷提供数据接口给后面的深度学习模型建立使用,我们将数据预处理独立出来,使用了最为简单的 Python 操作。在此,考虑到的是,我们的代码需要移植到评委所用的电脑当中进行验证,可能存在没有 import 某些库的情况,最后导致程序运行失败。

麻烦之处

在进入到决赛后,由于这两块的结合在一起的迫切需求,我们不得不又重新 import 我们库。然而在这块当中,如果我们只在 Master 节点,问题很简单,直接将库打包好,写个脚本就完事了。而在百度的 BMR 的 spark 集群里面,因为 Slaves 节点不能访问网络(如下图),因而我们要登录了 Master 节点之后,然后通过 Master 内网 ssh 到 Slaves 上,进而才能打开我们的脚本部署好我们的程序运行环境。

使用 fabric 解决百度 BMR 的 spark 集群各节点的部署问题

提出

这样子来说,我们有没有一个很好的办法,能通过 Master 上运行一个脚本,达到了整个集群的所有节点都自动部署我们的程序运行环境呢?经过阅读书籍《spark 最佳实践》,了解到了 Python 的第三方库 fabric。

fabric

首先请允许介绍一下 fabric,具体使用方法可以查阅官方 API Doc,在此我介绍一下我将使用到某一小部分。

执行本地任务

fabric 提供了一个 local("shell") 的接口,shell 就是 Linux 上的 shell 命令。例如

from fabric.api import local
 
local('ls /root/') #ls root 文件夹下的文件列表

执行远程任务

fabric 的强大之处,不是它在本地做到执行命令,本地执行的事儿可以用原生 shell 来解决,而是能在远程的服务器上执行命令,哪怕远程的服务器上没有安装 fabric。它是通过 ssh 方式实现的,因而我们需要定义一下三个参数:

env.hosts = ['ipaddress1', 'ipaddress2']
env.user = 'root'
env.password = 'fuckyou.'

通过设置 ip,用户名以及用户名密码,我们可以使用run("shell"),达到在远程服务器上执行我们所需要执行的任务。例如

from fabric.api import run, env
 
env.hosts = ['ipaddress1', 'ipaddress2']
env.user = 'root'
env.password = 'fuckyou.'
 
run('ls /root/') #ls root 文件夹下的文件列表

打开某一个文件夹

有时候我们需要精准地打开某一个文件夹,之后执行该文件下的某一个脚本或者文件。这是,我们得使用以下两个接口:

本地

with lcd('/root/local/'):
        local('cat local.txt') # cat 本地 '/root/local/' 下的local.txt 文件

远程

with cd('/root/distance/'):
        run('cat distance.txt') # cat 远程 '/root/distance/' 下的distance.txt 文件

执行 fabric 任务

我们可以通过命令行

fab --fabfile=filename.py job_func
# filename.py 为使用 fabric 写的 Python 文件 
# job_func 为带有 fabric 的函数,即主要执行的函数
# 以上两个名称都是可以自取,下面的介绍当中,我的为 job.py 与 job

socket

为什么会用到 socket 呢?在上一篇文章当中,我提及到在百度 BMR 的集群中,他们设置集群 Slaves 都是通过 slaves 的 hostname 的,而不是通过 ip。而因为在使用 fabric 设置环境中的 hosts 的时候需要用到 ip,那我们得通过 hostname,进而找到 ip。

你或许有疑问,为什么不直接设定 Slaves 的 IP 呢?但是百度 BMR 每次创建 spark 集群,它提供的内网 IP 都是不断在变动的,呈现出 IP 末端递增。

综上,还是使用 hostname 获取 IP

gethostbyname 接口

我们可以用过 gethostbyname('hostname') 接口,传入 hostname,然后得到一个 IPV4 的 ip 地址。

使用 fabric 编写各节点自动部署脚本

获取 Slaves 的 hostname

和上一篇文章说道的一样,我们 Slaves 的 hostname 是藏在了百度 BMR 的这里:

'/opt/bmr/Hadoop/etc/hadoop/slaves'

将 hostname 转化为 ip,设置 fabric 的 env 参数

host_list = []
f = open(path, 'r')
slaves_name = f.read().split('\n')
for i in range(1, slaves_name.__len__()-1):
    temp_name = slaves_name[i]
    temp_ip = socket.gethostbyname(temp_name)
    ip_port = temp_ip + ":22"
    host_list.append(ip_port)
    del temp_name
    del temp_ip
    del ip_port
env.user = 'root'
env.password = '*gdut728'
env.hosts = host_list

编写需要自动部署的 job

在这里,我要自动部署的是:
1 下载 Python 第三方库 jieba
2 在本地解压下载好的 jieba 压缩包
3 在本地,进入到解压好的文件夹中,安装 jieba
4 将下载好的压缩包传送到 Slaves 节点上
5 在远程端,解压下载好的 jieba 压缩包
6 在远程端,进入到解压好的文件夹中,安装 jieba

将上面步骤转化为代码,即

def job():
    local_command = "wget https://pypi.python.org/packages/71/46/c6f9179f73b818d5827202ad1c4a94e371a29473b7f043b736b4dab6b8cd/jieba-0.39.zip#md5=ca00c0c82bf5b8935e9c4dd52671a5a9"
    local(local_command)

    jieba_unzip = "unzip jieba-0.39.zip"
    jieba_path = "/root/jieba-0.39/"
    jieba_install = "python setup.py install"

    local(jieba_unzip)
    with lcd(jieba_path):
        local("ls")
        local(jieba_install)

    with lcd('/root/'):
        put("jieba-0.39.zip", '/root')

    run(jieba_unzip)
    with cd(jieba_path):
        run("ls")
        run(jieba_install)

结言

最后,在我上篇文章提到的 shell 脚本中,最前面加上

yum -y install fabric && fab --fabfile=job.py job 

输入./start-hadoop-spark.sh,即可无忧无虑地部署好我要使用的程序运行环境。因为懒,因为麻烦,于是用 Python 外加 shell 写了自动部署的脚本。在这个过程中,学习到不少知识,也遇到不少麻烦,写下文章,希望可以减轻大家配置的烦恼~

使用 fabric 解决百度 BMR 的 spark 集群各节点的部署问题

结果如下:
Master:

使用 fabric 解决百度 BMR 的 spark 集群各节点的部署问题

Slaves1:

使用 fabric 解决百度 BMR 的 spark 集群各节点的部署问题

Slaves2:

使用 fabric 解决百度 BMR 的 spark 集群各节点的部署问题

本文永久更新链接地址:http://www.linuxidc.com/Linux/2018-01/150609.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计3223字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7993226
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你 为什么要用宝塔跑分? 宝塔跑分其实就是对 CPU、内存、磁盘、IO 做...
免费领取huggingface的2核16G云服务器,超简单教程

免费领取huggingface的2核16G云服务器,超简单教程

免费领取 huggingface 的 2 核 16G 云服务器,超简单教程 前言 HuggingFace.co...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

300元就能买到的”小钢炮”?惠普7L四盘位小主机解析

  300 元就能买到的 ” 小钢炮 ”?惠普 7L 四盘位小主机解析 最近...
还在找免费服务器?无广告免费主机,新手也能轻松上手!

还在找免费服务器?无广告免费主机,新手也能轻松上手!

还在找免费服务器?无广告免费主机,新手也能轻松上手! 前言 对于个人开发者、建站新手或是想搭建测试站点的从业者...
支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare也瘫了连监控都挂,根因藏在哪?

支付宝、淘宝、闲鱼又双叕崩了,Cloudflare 也瘫了连监控都挂,根因藏在哪? 最近两天的互联网堪称“故障...
安装并使用谷歌AI编程工具Antigravity(亲测有效)

安装并使用谷歌AI编程工具Antigravity(亲测有效)

  安装并使用谷歌 AI 编程工具 Antigravity(亲测有效) 引言 Antigravity...
让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级

让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级

让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级 大家好,我是星哥,之前写了一篇文章 自己手撸一...