阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop基本操作命令大全

416次阅读
没有评论

共计 12569 个字符,预计需要花费 32 分钟才能阅读完成。

启动 Hadoop

start-all.sh

关闭 HADOOP

stop-all.sh

查看文件列表

查看 hdfs 中 /user/admin/aaron 目录下的文件。

hadoop fs -ls /user/admin/aaron

列出 hdfs 中 /user/admin/aaron 目录下的所有文件(包括子目录下的文件)。

hadoop fs -lsr /user/admin/aaron

创建文件目录

hadoop fs -mkdir /user/admin/aaron/newDir

删除文件

删除 hdfs 中 /user/admin/aaron 目录下一个名叫 needDelete 的文件

hadoop fs -rm /user/admin/aaron/needDelete

删除 hdfs 中 /user/admin/aaron 目录以及该目录下的所有文件

hadoop fs -rmr /user/admin/aaron

上传文件

hadoop fs –put /home/admin/newFile /user/admin/aaron/

下载文件

hadoop fs –get /user/admin/aaron/newFile /home/admin/newFile

查看文件

hadoop fs –cat /home/admin/newFile

新建一个空文件

hadoop  fs  -touchz /user/new.txt

将 hadoop 上某个文件重命名

hadoop  fs  –mv /user/test.txt  /user/ok.txt

将 hadoop 指定目录下所有内容保存为一个文件,同时 down 至本地

hadoop dfs –getmerge  /user /home/t

提交 MAPREDUCE JOB

h bin/hadoop jar /home/admin/hadoop/job.jar [jobMainClass] [jobArgs]

杀死某个正在运行的 JOB

hadoop job -kill job_201005310937_0053

更多 HADOOP 的命令

hadoop

可以看到更多命令的说明信息:

  namenode -format        format the DFS filesystem

  secondarynamenode    run the DFS secondary namenode

  namenode                      run the DFS namenode

  datanode                        run a DFS datanode

  dfsadmin                        run a DFS admin client

  fsck                                  run a DFS filesystem checking utility

  fs                                      run a generic filesystem user client

  balancer                        run a cluster balancing utility

  jobtracker                      run the MapReduce job Tracker node

  pipes                              run a Pipes job

  tasktracker                    run a MapReduce task Tracker node

  job                                  manipulate MapReduce jobs

  queue                            get information regarding JobQueues

  version                          print the version

  jar <jar>            run a jar file

  distcp <srcurl> <desturl> copy file or directories recursively

  archive -archiveName NAME <src>* <dest> create a hadoop archive

  daemonlog            get/set the log level for each daemon

 or

  CLASSNAME            run the class named CLASSNAME

Most commands print help when invoked w/o parameters.

说明:

1、列出所有 Hadoop Shell 支持的命令

  $bin/hadoop fs -help

2、显示关于某个命令的详细信息

  $bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总,显示作业的细节信息,失败和终止的任务细节

  $bin/hadoop job -history output-dir

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

  $bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统

  $bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS,所有列出的 slave 上启动 DataNode 守护进程

  $bin/start-dfs.sh

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce

  $bin/start-mapred.sh

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:

  $bin/stop-dfs.sh

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:

  $bin/stop-mapred.sh

 

DFSShell

10、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

11、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

12、查看名为 /foodir/myfile.txt 的文件内容

  $bin/hadoop dfs -cat /foodir/myfile.txt

 

DFSAdmin

13、将集群置于安全模式

  $bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表

  $bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役

  $bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin-help 命令能列出所有当前支持的命令。比如:

    *-report:报告 HDFS 的基本统计信息。有些信息可以在 NameNode Web 服务首页看到。

    *-safemode:通常并不需要,管理员的确可以手动让 NameNode 进入或离开安全模式。

    *-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式

  $bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件

  $bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。

  $dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本

  $bin/start-dfs.sh -upgrade

21、需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群

  $bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

    *dfsadmin -setquota <N> <directory>…<directory>

把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

    *dfsadmin -clrquota <directory>…<director>

为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

    *fs -count -q <directory>…<directory>

使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件

  $hadoop archive -archiveName NAME <src>* <dest>

    -archiveName NAME  要创建的档案的名字。

    src 文件系统的路径名,和通常含正则表达的一样。

    dest 保存档案文件的目标目录。

24、递归拷贝文件或目录

  $hadoop distcp <srcurl> <desturl>

    srcurl      源 Url

    desturl    目标 Url

 

25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoopfsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files[-blocks [-locations | -racks]]]

命令选项描述
<path>      检查的起始目录。
-move            移动受损文件到 /lost+found
-delete    删除受损文件。
-openforwrite    打印出写打开的文件。
-files            打印出正被检查的文件。
-blocks    打印出块信息报告。
-locations    打印出每个块的位置信息。
-racks            打印出 data-node 的网络拓扑结构。
26、用于和 Map Reduce 作业交互和命令(jar)
用法:Hadoopjob [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] |[-counter <job-id> <group-name> <counter-name>] | [-kill<job-id>] | [-events <job-id> <from-event-#><#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] |[-kill-task <task-id>] | [-fail-task <task-id>]
命令选项描述
-submit<job-file>                                          提交作业
-status<job-id>                                          打印 map 和 reduce 完成百分比和所有计数器。
-counter<job-id> <group-name> <counter-name>                  打印计数器的值。
-kill<job-id>                                                  杀死指定作业。
-events<job-id> <from-event-#> <#-of-events>                  打印给定范围内 jobtracker 接收到的事件细节。
-history [all]<jobOutputDir>    -history<jobOutputDir>        打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细节比如
成功的任务,做过的任务尝试等信息可以通过指定 [all] 选项查看。
-list [all]    -listall                                      显示所有作业。-list 只显示将要完成的作业。
-kill-task<task-id>                                          杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task<task-id>                                          使任务失败。被失败的任务会对失败尝试不利。
27、运行 pipes 作业
用法:hadooppipes [-conf <path>] [-jobconf <key=value>, <key=value>, …][-input <path>] [-output <path>] [-jar <jar file>][-inputformat <class>] [-map <class>] [-partitioner <class>][-reduce <class>] [-writer <class>] [-program <executable>][-reduces <num>]
命令选项描述
-conf <path>                              作业的配置
-jobconf<key=value>, <key=value>, …      增加 / 覆盖作业的配置项
-input <path>                            输入目录
-output<path>                        输出目录
-jar <jarfile>                    Jar 文件名
-inputformat<class>                      InputFormat 类
-map <class>                            JavaMap 类
-partitioner<class>                    JavaPartitioner
-reduce<class>                    JavaReduce 类
-writer<class>                    JavaRecordWriter
-program <executable>                    可执行程序的 URI
-reduces<num>                            reduce 个数
28、打印版本信息。
用法:hadoop version
29、hadoop 脚本可用于调调用任何类。
用法:hadoop CLASSNAME
运行名字为 CLASSNAME 的类。
30、运行集群平衡工具。管理员可以简单的按 Ctrl- C 来停止平衡过程 (balancer)
用法:hadoop balancer [-threshold <threshold>]
命令选项描述
-threshold<threshold>                    磁盘容量的百分比。这会覆盖缺省的阀值。
31、获取或设置每个守护进程的日志级别(daemonlog)。
用法:hadoopdaemonlog -getlevel <host:port> <name>
用法:hadoopdaemonlog -setlevel <host:port> <name> <level>
命令选项描述
-getlevel<host:port> <name>                      打印运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
-setlevel<host:port> <name> <level>              设置运行在 <host:port> 的守护进程的日志级别。这个命令内部会连接 http://<host:port>/logLevel?log=<name>
32、运行一个 HDFS 的 datanode。
用法:hadoopdatanode [-rollback]
命令选项描述
-rollback                                      将 datanode 回滚到前一个版本。这需要在停止 datanode,分发老的 hadoop 版本之后使用。
33、运行一个 HDFS 的 dfsadmin 客户端。
用法:hadoopdfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait][-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force][-metasave filename] [-setQuota <quota><dirname>…<dirname>] [-clrQuota<dirname>…<dirname>] [-help [cmd]]
命令选项描述
-report                                                      报告文件系统的基本信息和统计信息。
-safemode enter |leave | get | wait                              安全模式维护命令。安全模式是 Namenode 的一个状态,这种状态下,Namenode
1. 不接受对名字空间的更改(只读)
2. 不复制或删除块
Namenode 会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes                                    重新读取 hosts 和 exclude 文件,更新允许连到 Namenode 的或那些需要退出或入编的 Datanode 的集合。
-finalizeUpgrade                            终结 HDFS 的升级操作。Datanode 删除前一个版本的工作目录,之后 Namenode 也这样做。这个操作完结整个升级过程。
-upgradeProgressstatus | details | force      请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasave filename                            保存 Namenode 的主要数据结构到 hadoop.log.dir 属性指定的目录下的 <filename> 文件。对于下面的每一项,
                                                <filename> 中都会一行内容与之对应
1. Namenode 收到的 Datanode 的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块
-setQuota <quota><dirname>…<dirname>    为每个目录 <dirname> 设定配额 <quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1. N 不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。
-clrQuota<dirname>…<dirname>    为每一个目录 <dirname> 清除配额设定。
命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help [cmd]    显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。
34、运行 MapReduce job Tracker 节点 (jobtracker)。
用法:hadoopjobtracker
35、运行 namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoopnamenode [-format] | [-upgrade] | [-rollback] | [-finalize] |[-importCheckpoint]
命令选项描述
-format                            格式化 namenode。它启动 namenode,格式化 namenode,之后关闭 namenode。
-upgrade                            分发新版本的 hadoop 后,namenode 应以 upgrade 选项启动。
-rollback                            将 namenode 回滚到前一版本。这个选项要在停止集群,分发老的 hadoop 版本后使用。
-finalize                            finalize 会删除文件系统的前一状态。最近的升级会被持久化,rollback 选项将再
不可用,升级终结操作之后,它会停掉 namenode。
-importCheckpoint                    从检查点目录装载镜像并保存到当前检查点目录,检查点目录由 fs.checkpoint.dir 指定。
36、运行 HDFS 的 secondary namenode。
用法:hadoopsecondarynamenode [-checkpoint [force]] | [-geteditsize]
命令选项描述
-checkpoint [force]                    如果 EditLog 的大小 >= fs.checkpoint.size,启动 Secondary namenode 的检查点
过程。如果使用了 -force,将不考虑 EditLog 的大小。
-geteditsize                            打印 EditLog 大小。

相关阅读

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

启动 Hadoop

start-all.sh

关闭 HADOOP

stop-all.sh

查看文件列表

查看 hdfs 中 /user/admin/aaron 目录下的文件。

hadoop fs -ls /user/admin/aaron

列出 hdfs 中 /user/admin/aaron 目录下的所有文件(包括子目录下的文件)。

hadoop fs -lsr /user/admin/aaron

创建文件目录

hadoop fs -mkdir /user/admin/aaron/newDir

删除文件

删除 hdfs 中 /user/admin/aaron 目录下一个名叫 needDelete 的文件

hadoop fs -rm /user/admin/aaron/needDelete

删除 hdfs 中 /user/admin/aaron 目录以及该目录下的所有文件

hadoop fs -rmr /user/admin/aaron

上传文件

hadoop fs –put /home/admin/newFile /user/admin/aaron/

下载文件

hadoop fs –get /user/admin/aaron/newFile /home/admin/newFile

查看文件

hadoop fs –cat /home/admin/newFile

新建一个空文件

hadoop  fs  -touchz /user/new.txt

将 hadoop 上某个文件重命名

hadoop  fs  –mv /user/test.txt  /user/ok.txt

将 hadoop 指定目录下所有内容保存为一个文件,同时 down 至本地

hadoop dfs –getmerge  /user /home/t

提交 MAPREDUCE JOB

h bin/hadoop jar /home/admin/hadoop/job.jar [jobMainClass] [jobArgs]

杀死某个正在运行的 JOB

hadoop job -kill job_201005310937_0053

更多 HADOOP 的命令

hadoop

可以看到更多命令的说明信息:

  namenode -format        format the DFS filesystem

  secondarynamenode    run the DFS secondary namenode

  namenode                      run the DFS namenode

  datanode                        run a DFS datanode

  dfsadmin                        run a DFS admin client

  fsck                                  run a DFS filesystem checking utility

  fs                                      run a generic filesystem user client

  balancer                        run a cluster balancing utility

  jobtracker                      run the MapReduce job Tracker node

  pipes                              run a Pipes job

  tasktracker                    run a MapReduce task Tracker node

  job                                  manipulate MapReduce jobs

  queue                            get information regarding JobQueues

  version                          print the version

  jar <jar>            run a jar file

  distcp <srcurl> <desturl> copy file or directories recursively

  archive -archiveName NAME <src>* <dest> create a hadoop archive

  daemonlog            get/set the log level for each daemon

 or

  CLASSNAME            run the class named CLASSNAME

Most commands print help when invoked w/o parameters.

说明:

1、列出所有 Hadoop Shell 支持的命令

  $bin/hadoop fs -help

2、显示关于某个命令的详细信息

  $bin/hadoop fs -help command-name

3、用户可使用以下命令在指定路径下查看历史日志汇总,显示作业的细节信息,失败和终止的任务细节

  $bin/hadoop job -history output-dir

4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

  $bin/hadoop job -history all output-dir

5、格式化一个新的分布式文件系统

  $bin/hadoop namenode -format

6、在分配的 NameNode 上,运行下面的命令启动 HDFS,所有列出的 slave 上启动 DataNode 守护进程

  $bin/start-dfs.sh

7、在分配的 JobTracker 上,运行下面的命令启动 Map/Reduce

  $bin/start-mapred.sh

8、在分配的 NameNode 上,执行下面的命令停止 HDFS:

  $bin/stop-dfs.sh

9、在分配的 JobTracker 上,运行下面的命令停止 Map/Reduce:

  $bin/stop-mapred.sh

 

DFSShell

10、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

11、创建一个名为 /foodir 的目录

  $bin/hadoop dfs -mkdir /foodir

12、查看名为 /foodir/myfile.txt 的文件内容

  $bin/hadoop dfs -cat /foodir/myfile.txt

 

DFSAdmin

13、将集群置于安全模式

  $bin/hadoop dfsadmin -safemode enter

14、显示 Datanode 列表

  $bin/hadoop dfsadmin -report

15、使 Datanode 节点 datanodename 退役

  $bin/hadoop dfsadmin -decommission datanodename

16、bin/hadoop dfsadmin-help 命令能列出所有当前支持的命令。比如:

    *-report:报告 HDFS 的基本统计信息。有些信息可以在 NameNode Web 服务首页看到。

    *-safemode:通常并不需要,管理员的确可以手动让 NameNode 进入或离开安全模式。

    *-finalizeUpgrade:删除上一次升级时制作的集群备份。

17、显式地将 HDFS 置于安全模式

  $bin/hadoop dfsadmin -safemode

18、在升级之前,管理员需要用(升级终结操作)命令删除存在的备份文件

  $bin/hadoop dfsadmin -finalizeUpgrade

19、能够知道是否需要对一个集群执行升级终结操作。

  $dfsadmin -upgradeProgress status

20、使用 -upgrade 选项运行新的版本

  $bin/start-dfs.sh -upgrade

21、需要退回到老版本, 就必须停止集群并且部署老版本的 Hadoop,用回滚选项启动集群

  $bin/start-dfs.h -rollback

22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

    *dfsadmin -setquota <N> <directory>…<directory>

把每个目录配额设为 N。这个命令会在每个目录上尝试,如果 N 不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

    *dfsadmin -clrquota <directory>…<director>

为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

    *fs -count -q <directory>…<directory>

使用 - q 选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告 none 和 inf。

23、创建一个 hadoop 档案文件

  $hadoop archive -archiveName NAME <src>* <dest>

    -archiveName NAME  要创建的档案的名字。

    src 文件系统的路径名,和通常含正则表达的一样。

    dest 保存档案文件的目标目录。

24、递归拷贝文件或目录

  $hadoop distcp <srcurl> <desturl>

    srcurl      源 Url

    desturl    目标 Url

 

25、运行 HDFS 文件系统检查工具 (fsck tools)
用法:hadoopfsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files[-blocks [-locations | -racks]]]

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计12569字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7987730
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比 星哥玩云,带你从小白到上云高手。今天咱们就来聊聊——什...
星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛 NAS-5:飞牛 NAS 中的 Docker 功能介绍 大家好,我是星哥,今天给大家带来如何在...
在Windows系统中通过VMware安装苹果macOS15

在Windows系统中通过VMware安装苹果macOS15

在 Windows 系统中通过 VMware 安装苹果 macOS15 许多开发者和爱好者希望在 Window...
星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛 NAS-7:手把手教你免费内网穿透 -Cloudflare tunnel 前言 大家好,我是星...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定!

星哥带你玩飞牛 NAS-9:全能网盘搜索工具 13 种云盘一键搞定! 前言 作为 NAS 玩家,你是否总被这些...
240 元左右!五盘位 NAS主机,7 代U硬解4K稳如狗,拓展性碾压同价位

240 元左右!五盘位 NAS主机,7 代U硬解4K稳如狗,拓展性碾压同价位

  240 元左右!五盘位 NAS 主机,7 代 U 硬解 4K 稳如狗,拓展性碾压同价位 在 NA...
免费无广告!这款跨平台AI RSS阅读器,拯救你的信息焦虑

免费无广告!这款跨平台AI RSS阅读器,拯救你的信息焦虑

  免费无广告!这款跨平台 AI RSS 阅读器,拯救你的信息焦虑 在算法推荐主导信息流的时代,我们...
小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比

小白也能看懂:什么是云服务器?腾讯云 vs 阿里云对比 星哥玩云,带你从小白到上云高手。今天咱们就来聊聊——什...
还在找免费服务器?无广告免费主机,新手也能轻松上手!

还在找免费服务器?无广告免费主机,新手也能轻松上手!

还在找免费服务器?无广告免费主机,新手也能轻松上手! 前言 对于个人开发者、建站新手或是想搭建测试站点的从业者...