阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop连载系列之五:Hadoop命令行详解

453次阅读
没有评论

共计 12459 个字符,预计需要花费 32 分钟才能阅读完成。

1 Hadoop fs

——————————————————————————–
该 hadoop 子命令集执行的根目录是 /home 目录,本机上为 /user/root

——————————————————————————–
1、列出所有 Hadoop Shell 支持的命令
$ bin/hadoop fs -help 

2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总(输出目录)
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统
$ bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS
$ bin/start-dfs.sh
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:
$ bin/start-mapred.sh
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:
$ bin/stop-dfs.sh
bin/stop-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 DataNode 守护进程。

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:
$ bin/stop-mapred.sh
bin/stop-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 TaskTracker 守护进程。

2 DFS Shell

——————————————————————————–
10、hadoop dfs 命令执行的根目录为“/”

11、创建一个 jay 目录
$ bin/hadoop dfs -mkdir /jay

12、查看名为 /foodir/myfile.txt 的文件内容
$ bin/hadoop dfs -cat /foodir/myfile.txt

3 DFSAdmin

——————————————————————————–
13、将集群置于安全模式
$ bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表
$ bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役
$ bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:
* -report:报告 HDFS 的基本统计信息。有些信息也可以在 NameNodeWeb 服务首页看到。
* -safemode:虽然通常并不需要,但是管理员的确可以手动让 NameNode 进入或离开安全模式。

*-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式
$ bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件
$ bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。
$ bin/hadoop dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本
$ bin/start-dfs.sh -upgrade

21、如果需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群
$ bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。
* dfsadmin -setquota <N> <directory>…<directory>
把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

*dfsadmin -clrquota <directory>…<director>
为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

*fs -count -q <directory>…<directory>
使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件
$hadoop archive -archiveName NAME <src>* <dest>
-archiveName NAME 要创建的档案的名字。
src 文件系统的路径名,和通常含正则表达的一样。
dest 保存档案文件的目标目录。

24、递归地拷贝文件或目录
$hadoop distcp <srcurl> <desturl>
srcurl  源 Url
desturl 目标 Url

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

4 Hadoop fsck

——————————————————————————–
25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite][-files [-blocks [-locations | -racks]]]
命令选项                                    描述
<path>                            检查的起始目录。
-move                    移动受损文件到 /lost+found
-delete                            删除受损文件。
-openforwrite            打印出写打开的文件。
-files                        打印出正被检查的文件。
-blocks                            打印出块信息报告。
-locations                    打印出每个块的位置信息。
-racks                打印出 data-node 的网络拓扑结构。

5 用于 Map Reduce 作业交互命令(jar)

——————————————————————————–
26、用于和 MapReduce 作业交互和命令 (jar)
用法:hadoopjob [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>]| [-counter <job-id> <group-name> <counter-name>] |[-kill <job-id>] | [-events <job-id> <from-event-#><#-of-events>] | [-history [all] <jobOutputDir>] | [-list[all]] | [-kill-task <task-id>] | [-fail-task<task-id>]
命令选项                                                                                                            描述
-submit <job-file>                                                                                      提交作业
-status <job-id>                                                  打印 map 和 reduce 完成百分比和所有计数器。
-counter<job-id> <group-name> <counter-name>                        打印计数器的值。
-kill<job-id>                                                                                            杀死指定作业。
-events<job-id> <from-event-#><#-of-events>    打印给定范围内 jobtracker 接收到的事件细节。
-history[all] <jobOutputDir> -history                        打印作业的细节、失败及被杀死原因的细节。更多的

<jobOutputDir>                                                        关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定 [all] 选项查看

 

-list [all]  -list all                                                      显示所有作业。-list 只显示将要完成的作业。
-kill-task<task-id>                                              杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task<task-id>                                            使任务失败。被失败的任务会对失败尝试不利。

6 运行 pipes 作业

——————————————————————————–
27、运行 pipes 作业
用法:
hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>,…] [-input <path>] [-output <path>] [-jar <jarfile>] [-inputformat <class>] [-map <class>][-partitioner <class>]  [-reduce <class>] [-writer<class>] [-program <executable>] [-reduces<num>]
命令选项                                                                                                        描述
-conf<path>                                                                                            作业的配置
-jobconf<key=value>, <key=value>, …                                    增加 / 覆盖作业的配置项
-input<path>                                                                                                输入目录
-output<path>                                                                                            输出目录
-jar<jar file> Jar                                                                                            文件名
-inputformat<class>                                                                              InputFormat 类
-map<class>                                                                                                  Java Map 类
-partitioner<class>                                                                                  Java Partitioner
-reduce <class>                                                                                    Java Reduce 类
-writer<class>                                                                                Java RecordWriter
-program <executable>                                                                        可执行程序的 URI
-reduces<num>                                                                                        reduce 个数

7 其他命令

——————————————————————————–
28、打印版本信息。
用法:hadoop version

29、hadoop 脚本可用于调用任何类。
用法:hadoop CLASSNAME
运行名字为 CLASSNAME 的类。

30、运行集群平衡工具。管理员可以简单的按 Ctrl- C 来停止平衡过程 (balancer)
用法:hadoop balancer [-threshold <threshold>]
命令选项                                                    描述
-threshold<threshold>                磁盘容量的百分比。这会覆盖缺省的阀值。

31、获取或设置每个守护进程的日志级别 (daemonlog)。
用法:hadoop daemonlog -getlevel <host:port> <name>
用法:hadoop daemonlog -setlevel <host:port> <name><level>
命令选项                                                                                                描述
-getlevel<host:port><name>                                    打印运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
-setlevel<host:port> <name><level>                        设置运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>

32、运行一个 HDFS 的 datanode。
用法:hadoop datanode [-rollback]
命令选项                                                                                        描述
-rollback                                                            将 datanode 回滚到前一个版本。这需要在停止 datanode,分发老的 hadoop 版本之后使用。

33、运行一个 HDFS 的 dfsadmin 客户端。
用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get |wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status |details | force] [-metasave filename] [-setQuota <quota><dirname>…<dirname>] [-clrQuota <dirname>…<dirname>][-help[cmd]]
命令选项                                                                                                        描述
-report                                                                    报告文件系统的基本信息和统计信息。
-safemodeenter | leave | get |wait                        安全模式维护命令。安全模式是 Namenode 的一个状态,这种状态下,Namenode:1. 不接受对名字空间的更改(只读);2. 不复制或删除块。Namenode 会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes                                                            重新读取 hosts 和 exclude 文件,更新允许连到 Namenode 的或那些需要退出或入编的 Datanode 的集合。
-finalizeUpgrade                                                        终结 HDFS 的升级操作。Datanode 删除前一个版本的工作目录,之后 Namenode 也这样做。这个操作完结整个升级过程。
-upgradeProgressstatus | details | force                    请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasavefilename                                                    保存 Namenode 的主要数据结构到 hadoop.log.dir 属性指定的目录下的 <filename> 文件。对于下面的每一项,<filename> 中都会一行内容与之对应:
1.Namenode 收到的 Datanode 的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块

-setQuota<quota> <dirname>…<dirname>                  为每个目录 <dirname> 设定配额 <quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1.N 不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。

-clrQuota<dirname>…<dirname>                                    为每一个目录 <dirname> 清除配额设定。命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help[cmd] 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。

34、运行 MapReducejob Tracker 节点 (jobtracker)。
用法:hadoop jobtracker

35、运行 namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] |[-importCheckpoint]
命令选项                                                                                    描述
-format                                                            格式化 namenode。它启动 namenode,格式化 namenode,之后关闭 namenode。
-upgrade                                                            分发新版本的 hadoop 后,namenode 应以 upgrade                                                                选项启动。
-rollback                                                                    将 namenode 回滚到前一版本。这个选项要在停止集群,分发老的 hadoop 版本后使用。
-finalizefinalize                                                            会删除文件系统的前一状态。最近的升级会被持久化,rollback 选项将再不可用,升级终结操作之后,它会停掉 namenode。
-importCheckpoint                                                从检查点目录装载镜像并保存到当前检查点目录,检查点目录由 fs.checkpoint.dir 指定。

36、运行 HDFS 的 secondarynamenode。
用法:hadoop secondarynamenode [-checkpoint [force]] |[-geteditsize]
命令选项                                                                                                描述

-checkpoint [force]                                                                    如果 EditLog 的大小 >= fs.checkpoint.size,启动 Secondarynamenode 的检查点过程。如果使用了 -force,将不考虑 EditLog 的大小。
-geteditsize                                                                                        打印 EditLog 大小。

37、运行 MapReduce 的 taskTracker 节点。
用法:hadoop tasktracker

8 总结

——————————————————————————–
此文只做参考,具体的命令行可自行 man。

1 Hadoop fs

——————————————————————————–
该 hadoop 子命令集执行的根目录是 /home 目录,本机上为 /user/root

——————————————————————————–
1、列出所有 Hadoop Shell 支持的命令
$ bin/hadoop fs -help 

2、显示关于某个命令的详细信息
$ bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总(输出目录)
$ bin/hadoop job -history output-dir
这条命令会显示作业的细节信息,失败和终止的任务细节。

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看
$ bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统
$ bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS
$ bin/start-dfs.sh
bin/start-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 DataNode 守护进程。

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce:
$ bin/start-mapred.sh
bin/start-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上启动 TaskTracker 守护进程。

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:
$ bin/stop-dfs.sh
bin/stop-dfs.sh 脚本会参照 NameNode 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 DataNode 守护进程。

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:
$ bin/stop-mapred.sh
bin/stop-mapred.sh 脚本会参照 JobTracker 上 ${HADOOP_CONF_DIR}/slaves 文件的内容,在所有列出的 slave 上停止 TaskTracker 守护进程。

2 DFS Shell

——————————————————————————–
10、hadoop dfs 命令执行的根目录为“/”

11、创建一个 jay 目录
$ bin/hadoop dfs -mkdir /jay

12、查看名为 /foodir/myfile.txt 的文件内容
$ bin/hadoop dfs -cat /foodir/myfile.txt

3 DFSAdmin

——————————————————————————–
13、将集群置于安全模式
$ bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表
$ bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役
$ bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin -help 命令能列出所有当前支持的命令。比如:
* -report:报告 HDFS 的基本统计信息。有些信息也可以在 NameNodeWeb 服务首页看到。
* -safemode:虽然通常并不需要,但是管理员的确可以手动让 NameNode 进入或离开安全模式。

*-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式
$ bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件
$ bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。
$ bin/hadoop dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本
$ bin/start-dfs.sh -upgrade

21、如果需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群
$ bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。
* dfsadmin -setquota <N> <directory>…<directory>
把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

*dfsadmin -clrquota <directory>…<director>
为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

*fs -count -q <directory>…<directory>
使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件
$hadoop archive -archiveName NAME <src>* <dest>
-archiveName NAME 要创建的档案的名字。
src 文件系统的路径名,和通常含正则表达的一样。
dest 保存档案文件的目标目录。

24、递归地拷贝文件或目录
$hadoop distcp <srcurl> <desturl>
srcurl  源 Url
desturl 目标 Url

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计12459字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7973910
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛 NAS-5:飞牛 NAS 中的 Docker 功能介绍 大家好,我是星哥,今天给大家带来如何在...
星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛 NAS-12:开源笔记的进化之路,效率玩家的新选择 前言 如何高效管理知识与笔记,已经成为技术...
仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

还在忍受动辄数百兆的“全家桶”监控软件?后台偷占资源、界面杂乱冗余,想查个 CPU 温度都要层层点选? 今天给...
恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击

恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击

恶意团伙利用 PHP-FPM 未授权访问漏洞发起大规模攻击 PHP-FPM(FastCGl Process M...
你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你 为什么要用宝塔跑分? 宝塔跑分其实就是对 CPU、内存、磁盘、IO 做...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

  告别 Notion 焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁” 引言 在数字笔记工...
三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Android 的最优解?

三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Android 的最优解?

  三大开源投屏神器横评:QtScrcpy、scrcpy、escrcpy 谁才是跨平台控制 Andr...
小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比 星哥玩云,带你从小白到上云高手。今天咱们就来聊聊——什...
星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

星哥带你玩飞牛NAS-16:不再错过公众号更新,飞牛NAS搭建RSS

  星哥带你玩飞牛 NAS-16:不再错过公众号更新,飞牛 NAS 搭建 RSS 对于经常关注多个微...
安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装 Black 群晖 DSM7.2 系统安装教程(在 Vmware 虚拟机中、实体机均可)! 前言 大家好,...