阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

RHCS高可用部署以及GFS2/CLVM集群文件系统应用

446次阅读
没有评论

共计 12851 个字符,预计需要花费 33 分钟才能阅读完成。

说明:由于配置节点比较多,有些操作使用简单的 ansible 部署,同时为了能清淅明白操作步骤没有写成 playbook;

拓扑图:

RHCS 高可用部署以及 GFS2/CLVM 集群文件系统应用

1、确保所有节点时间同步;

[root@ansible ~]# ansible group1 -a ‘date’

server13.neo.com | success | rc=0 >>

Sat Jul 26 10:31:49 CST 2014

server11.neo.com | success | rc=0 >>

Sat Jul 26 10:31:50 CST 2014

server12.neo.com | success | rc=0 >>

Sat Jul 26 10:31:50 CST 2014

2、确保 NetworkManager 己关闭;

[root@ansible ~]# ansible group1 -a ‘chkconfig –list NetworkManager’

server11.neo.com | success | rc=0 >>

NetworkManager    0:off    1:off    2:off    3:off    4:off    5:off    6:off

server13.neo.com | success | rc=0 >>

NetworkManager    0:off    1:off    2:off    3:off    4:off    5:off    6:off

server12.neo.com | success | rc=0 >>

NetworkManager    0:off    1:off    2:off    3:off    4:off    5:off    6:off

一、RHCS 高可用部署

1、RHCS 管理节点安装 luci 组件

[root@ansible ~]# yum install -y luci –disablerepo=epel

[root@ansible ~]# service luci start

[root@ansible ~]# netstat -tunlp |grep 8084

2、RHCS 集群节点安装 ricci 组件

[root@ansible ~]# ansible group1 -m yum -a ‘name=ricci state=present disablerepo=epel’

[root@ansible ~]# ansible group1 -m service -a ‘name=ricci state=started enabled=yes’

[root@ansible ~]# ansible group1 -m shell -a ‘netstat -tunlp |grep ricci’

3、为每个 RHCS 集群节点添加 web 服务且提供主页文件

[root@ansible ~]# ansible group1 -m yum -a ‘name=httpd state=present’

[root@ansible ~]# ansible group1 -m shell -a ‘echo “<h1>`uname -n`</h1>” >/var/www/html/index.html’

[root@ansible ~]# ansible group1 -m service -a ‘name=httpd state=started enabled=yes’

[root@ansible ~]# ansible group1 -m shell -a ‘echo asdasd |passwd –stdin ricci’

4、使用 web GUI 界面配置高可用服务

1)在浏览器中访问 https://192.168.100.200:8084;

2)使用 root 帐号密码登陆;

3)创建集群服务

RHCS 高可用部署以及 GFS2/CLVM 集群文件系统应用

注意 Node Name 中的 Password 是我们为 ricci 添加的密码;

4)定义故障域 ”FailOver Domains”, 且定义“Priority”值;

5)添加资源“Resources”,这里 lsb 风格的服务需指定为 Scripts;添加 VIP 与 Httpd 两个资源;

6)定义组“Group”,把 VIP 与 httpd 添加进组中;

7)启动组;

8)模拟故障,在 web GUI 界面切换组资源在节点上的运行;

我们也可以在 shell 命令行下查看节点状态:

[root@server11 ~]# clustat

Cluster Status for My_Cluster @ Sat Jul 26 11:28:36 2014

Member Status: Quorate

 

 Member Name                                                    ID  Status

 —— —-                                                    —- ——

 server11.neo.com                                                    1 Online, Local, rgmanager

 server12.neo.com                                                    2 Online, rgmanager

 server13.neo.com                                                    3 Online, rgmanager

 

 Service Name                                                    Owner (Last)                                                    State       

 ——- —-                                                    —– ——                                                    —–       

 service:webserver                                                server13.neo.com                                                started

至此一个简单的 web 高可用集群服务部署完成。

相关的命令行管理工具:

clusvcadm

cman_tool

ccs_tool

cman 的配置文件在 /etc/cluster/cluster.conf

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-07/104786p2.htm

二、部署 GFS2/CLVM 集群文件系统

由于上面部署 GFS2 使用的是 ricci 和 luci 套件,而且使用了 CONGA 图型化配置,下面我们部置集群文件系统不需要用到图型化配置,所以还是手动安装就行;

1、在集群节点上安装 cman,corosync,rgmanager

# ansible group1 -m yum -a ‘name=cman state=present’

# ansible group1 -m yum -a ‘name=corosync state=present’

# ansible group1 -m yum -a ‘name=rgmanager state=present’

2、在任一集群节点上创建集群,且添加集如节点信息;

    下面这里必须手动创建,默认安装完后是没有配置文件,CMAN 也无法启动;

[root@server11 ~]# ccs_tool create My_Cluster 

[root@server11 ~]# ccs_tool addnode server11.neo.com -n 1 -v 1

[root@server11 ~]# ccs_tool addnode server12.neo.com -n 2 -v 1

[root@server11 ~]# ccs_tool addnode server13.neo.com -n 3 -v 1

[root@server11 ~]# ccs_tool lsnode  // 查看集群节点;

 

Cluster name: My_Cluster, config_version: 4

 

Nodename                        Votes Nodeid Fencetype

server11.neo.com                  1    1   

server12.neo.com                  1    2   

server13.neo.com                  1    3 

 

[root@server11 ~]# cat /etc/cluster/cluster.conf  // 查看 CMAN 配置文件;

<?xml version=”1.0″?>

<cluster name=”My_Cluster” config_version=”4″>

 

  <clusternodes>

      <clusternode name=”server11.neo.com” votes=”1″ nodeid=”1″/>

      <clusternode name=”server12.neo.com” votes=”1″ nodeid=”2″/>

      <clusternode name=”server13.neo.com” votes=”1″ nodeid=”3″/>

  </clusternodes>

 

  <fencedevices>

  </fencedevices>

 

  <rm>

      <failoverdomains/>

      <resources/>

  </rm>

</cluster>

 

将 server11 上的 cluster.conf 复制到其它集群节点:// 以下两步,我记得以前在 RHEL5 上是可以自动传送给其它节点的,但不知为何 RHEL6 无法自动传送,所以我们还是手动传送给其它集群节点;

[root@server11 ~]# scp -p /etc/cluster/cluster.conf server12:/etc/cluster/

[root@server11 ~]# scp -p /etc/cluster/cluster.conf server13:/etc/cluster/

3、启动服务

[root@ansible ~]# ansible group1 -m service -a ‘name=cman state=started enabled=yes’  // 设置 CMAN 服务启动且开机自动启动;

4、安装配置 ISCSI 服务端与客户端

[root@ansible ~]# ansible group1 -m yum -a ‘name=iscsi-initiator-utils state=present’ // 在各集群节点上安装 iscsi 客户端软件;

[root@server14 ~]# yum install scsi-target-utils -y  // 在 iscsi 服务器上安装配置 ISCSI 服务端

[root@server14 ~]# cat /etc/tgt/targets.conf    // 配置文件;

default-driver iscsi

<target iqn.2014-07.com.neo:server14.target2>

    backing-store /dev/sdb1

    backing-store /dev/sdb2

    initiator-address 192.168.100.0/24

</target>

[root@server14 ~]# service tgtd start        // 启动 iscsi 服务端;

Starting SCSI target daemon:                              [OK]

[root@server14 ~]# chkconfig tgtd on        // 设置开机自动启动;

[root@server14 ~]# tgtadm -L iscsi -m target -o show  // 查看状态信息;

Target 1: iqn.2014-07.com.neo:server14.target2

    System information:

        Driver: iscsi

        State: ready

    LUN information:

        LUN: 0

            Type: controller

            SCSI ID: IET    00010000

            SCSI SN: beaf10

            Size: 0 MB, Block size: 1

            Online: Yes

            Removable media: No

            Prevent removal: No

            Readonly: No

            Backing store type: null

            Backing store path: None

            Backing store flags:

        LUN: 1

            Type: disk

            SCSI ID: IET    00010001

            SCSI SN: beaf11

            Size: 10742 MB, Block size: 512

            Online: Yes

            Removable media: No

            Prevent removal: No

            Readonly: No

            Backing store type: rdwr

            Backing store path: /dev/sdb1

            Backing store flags:

        LUN: 2

            Type: disk

            SCSI ID: IET    00010002

            SCSI SN: beaf12

            Size: 10742 MB, Block size: 512

            Online: Yes

            Removable media: No

            Prevent removal: No

            Readonly: No

            Backing store type: rdwr

            Backing store path: /dev/sdb2

            Backing store flags:

    Account information:

    ACL information:

        192.168.100.0/24

为每个集群节点配置独有的 iscsi 客户端名称;

[root@ansible ~]# ansible group1 -m shell -a ‘echo “InitiatorName=`iscsi-iname -p iqn.2014-07.com.neo`” >/etc/iscsi/initiatorname.iscsi’

检查是否正确;

[root@ansible ~]# ansible group1 -m shell -a ‘cat /etc/iscsi/initiatorname.iscsi’

server11.neo.com | success | rc=0 >>

InitiatorName=iqn.2014-07.com.neo:bb39eb84c2

server12.neo.com | success | rc=0 >>

InitiatorName=iqn.2014-07.com.neo:3032a51c13da

server13.neo.com | success | rc=0 >>

InitiatorName=iqn.2014-07.com.neo:c82593bb8d

[root@ansible ~]# ansible group1 -m shell -a ‘iscsiadm -m discovery -p 192.168.100.14 -t sendtargets’  // 集群节点都去 discovery 一次目标主机;

[root@ansible ~]# ansible group1 -m shell -a ‘iscsiadm -m node -T iqn.2014-07.com.neo:server14.target2 -p 192.168.100.14 -l’  // 集群节点登陆,连接服务端;

 

 

[root@ansible ~]# ansible group1 -m yum -a ‘name=gfs2-utils state=present’ // 安装 GFS2 组件;

 

以下为选择集群中任一节点操作:

[root@server11 ~]# fdisk /dev/sdb

[root@server11 ~]# partx -a /dev/sdb

[root@server11 ~]# mkfs.gfs2 -h

Usage:

mkfs.gfs2 [options] <device> [block-count]

Options:

  -b <bytes>      Filesystem block size

  -c <MB>          Size of quota change file

  -D              Enable debugging code

  -h              Print this help, then exit

  -J <MB>          Size of journals

  -j <num>        Number of journals  // 设定日志文件系统个数,有多少个集群节点设置多少个;

  -K              Don’t try to discard unused blocks

  -O              Don’t ask for confirmation

  -p <name>        Name of the locking protocol // 指定锁类型,创建集群文件系统我们使用 lock_dlm;

  -q              Don’t print anything

  -r <MB>          Resource Group Size

  -t <name>        Name of the lock table // 指定锁表名称:ClusterName:string

  -u <MB>          Size of unlinked file

  -V              Print program version information, then exit

 

   

[root@server11 ~]# mkfs.gfs2 -j 3 -t My_Cluster:myweb -p lock_dlm /dev/sdb1  // 创建集群文件系统;

This will destroy any data on /dev/sdb1.

It appears to contain: data

Are you sure you want to proceed? [y/n] y

Device:                    /dev/sdb1

Blocksize:                4096

Device Size                10.00 GB (2622460 blocks)

Filesystem Size:          10.00 GB (2622458 blocks)

Journals:                  3

Resource Groups:          41

Locking Protocol:          “lock_dlm”

Lock Table:                “My_Cluster:myweb”

UUID:                      c6d9c780-9a94-e245-0471-a16c55e6b1c1

 

 

[root@server11 ~]# ansible group1 -m shell -a ‘mount /dev/sdb1 /root/gfs2’ // 所有节点都挂载此集群文件系统,且都可以同时读取文件;

 

 

CLVM 集群逻辑卷文件系统

这里我们继续上面 GFS2 文件系统环境进行;

每个集群节点上安装 lvm2-utils

 

 

123

[root@ansible ~]# ansible group1 -m yum -a ‘name=lvm2-cluster state=present disablerepo=epel’

[root@ansible ~]# ansible group1 -m shell -a ‘lvmconf –enable-cluster’  // 启用 lvm 集群功能,默认是不启用的;这里也可以直接去修改 /etc/lvm/lvm.conf 中“locking-type=3”;

[root@ansible ~]# ansible group1 -m service -a ‘name=clvmd state=started enabled=yes’ // 设置开机自动启动;

同样的,在任一集群节点上创建一个新的分区,然后创建 PV,VG,LV 等;

[root@server11 ~]# fdisk /dev/sdc

Command (m for help): n

p

Partition number (1-4): 1

First cylinder (1-1020, default 1):

Using default value 1

Last cylinder, +cylinders or +size{K,M,G} (1-1020, default 1020): +1G

 

Command (m for help): n

p

Partition number (1-4): 2

Last cylinder, +cylinders or +size{K,M,G} (206-1020, default 1020): +1G

Command (m for help): w

 

在每个节点上刷新内核重识分区 (由于 ISCSI 磁盘是先连接登陆,所以集群中某一节点对其分区,另外节点内核是无法识别的);

[root@ansible ~]# ansible group1 -m shell -a ‘partx -a /dev/sdc’

 

[root@server11 ~]# pvcreate /dev/sdc1  // 创建 PV;

  Physical volume “/dev/sdc1” successfully created

[root@server11 ~]# vgcreate vg_clvm /dev/sdc1  // 创建 VG;

  Clustered volume group “vg_clvm” successfully created

[root@server11 ~]# lvcreate -L 1G -n lv_clvm vg_clvm  // 创建 LV;

  Logical volume “lv_clvm” created

 

  下面可以查看其它集群节点都可以看到 server11 上的操作结果;

[root@ansible ~]# ansible group1 -m shell -a ‘vgs’

server11.neo.com | success | rc=0 >>

  VG        #PV #LV #SN Attr  VSize  VFree

  vg_clvm    1  1  0 wz–nc  1.00g 4.00m

  vg_server  1  2  0 wz–n- 19.51g    0

 

server12.neo.com | success | rc=0 >>

  VG        #PV #LV #SN Attr  VSize  VFree

  vg_clvm    1  1  0 wz–nc  1.00g 4.00m

  vg_server  1  2  0 wz–n- 19.51g    0

 

server13.neo.com | success | rc=0 >>

  VG        #PV #LV #SN Attr  VSize  VFree

  vg_clvm    1  1  0 wz–nc  1.00g 4.00m

  vg_server  1  2  0 wz–n- 19.51g    0

 

[root@ansible ~]# ansible group1 -m shell -a ‘lvs’

server12.neo.com | success | rc=0 >>

  LV      VG        Attr      LSize  Pool Origin Data%  Move Log Cpy%Sync Convert

  lv_clvm vg_clvm  -wi-a—–  1.00g                                           

  lv_root vg_server -wi-ao—- 17.57g                                           

  lv_swap vg_server -wi-ao—-  1.94g                                           

 

server13.neo.com | success | rc=0 >>

  LV      VG        Attr      LSize  Pool Origin Data%  Move Log Cpy%Sync Convert

  lv_clvm vg_clvm  -wi-a—–  1.00g                                           

  lv_root vg_server -wi-ao—- 17.57g                                           

  lv_swap vg_server -wi-ao—-  1.94g                                           

 

server11.neo.com | success | rc=0 >>

  LV      VG        Attr      LSize  Pool Origin Data%  Move Log Cpy%Sync Convert

  lv_clvm vg_clvm  -wi-a—–  1.00g                                           

  lv_root vg_server -wi-ao—- 17.57g                                           

  lv_swap vg_server -wi-ao—-  1.94g                                           

 

  创建 GFS2 文件系统;

[root@server11 ~]# mkfs.gfs2 -j 3 -t My_Cluster:clvm -p lock_dlm /dev/mapper/vg_clvm-lv_clvm

This will destroy any data on /dev/mapper/vg_clvm-lv_clvm.

It appears to contain: symbolic link to `../dm-2′

 

Are you sure you want to proceed? [y/n] y

 

Device:                    /dev/mapper/vg_clvm-lv_clvm

Blocksize:                4096

Device Size                1.00 GB (262144 blocks)

Filesystem Size:          1.00 GB (262142 blocks)

Journals:                  3

Resource Groups:          4

Locking Protocol:          “lock_dlm”

Lock Table:                “My_Cluster:clvm”

UUID:                      dfcd6df8-c309-9fba-c19f-3f8d174096d9

说明:由于配置节点比较多,有些操作使用简单的 ansible 部署,同时为了能清淅明白操作步骤没有写成 playbook;

拓扑图:

RHCS 高可用部署以及 GFS2/CLVM 集群文件系统应用

1、确保所有节点时间同步;

[root@ansible ~]# ansible group1 -a ‘date’

server13.neo.com | success | rc=0 >>

Sat Jul 26 10:31:49 CST 2014

server11.neo.com | success | rc=0 >>

Sat Jul 26 10:31:50 CST 2014

server12.neo.com | success | rc=0 >>

Sat Jul 26 10:31:50 CST 2014

2、确保 NetworkManager 己关闭;

[root@ansible ~]# ansible group1 -a ‘chkconfig –list NetworkManager’

server11.neo.com | success | rc=0 >>

NetworkManager    0:off    1:off    2:off    3:off    4:off    5:off    6:off

server13.neo.com | success | rc=0 >>

NetworkManager    0:off    1:off    2:off    3:off    4:off    5:off    6:off

server12.neo.com | success | rc=0 >>

NetworkManager    0:off    1:off    2:off    3:off    4:off    5:off    6:off

一、RHCS 高可用部署

1、RHCS 管理节点安装 luci 组件

[root@ansible ~]# yum install -y luci –disablerepo=epel

[root@ansible ~]# service luci start

[root@ansible ~]# netstat -tunlp |grep 8084

2、RHCS 集群节点安装 ricci 组件

[root@ansible ~]# ansible group1 -m yum -a ‘name=ricci state=present disablerepo=epel’

[root@ansible ~]# ansible group1 -m service -a ‘name=ricci state=started enabled=yes’

[root@ansible ~]# ansible group1 -m shell -a ‘netstat -tunlp |grep ricci’

3、为每个 RHCS 集群节点添加 web 服务且提供主页文件

[root@ansible ~]# ansible group1 -m yum -a ‘name=httpd state=present’

[root@ansible ~]# ansible group1 -m shell -a ‘echo “<h1>`uname -n`</h1>” >/var/www/html/index.html’

[root@ansible ~]# ansible group1 -m service -a ‘name=httpd state=started enabled=yes’

[root@ansible ~]# ansible group1 -m shell -a ‘echo asdasd |passwd –stdin ricci’

4、使用 web GUI 界面配置高可用服务

1)在浏览器中访问 https://192.168.100.200:8084;

2)使用 root 帐号密码登陆;

3)创建集群服务

RHCS 高可用部署以及 GFS2/CLVM 集群文件系统应用

注意 Node Name 中的 Password 是我们为 ricci 添加的密码;

4)定义故障域 ”FailOver Domains”, 且定义“Priority”值;

5)添加资源“Resources”,这里 lsb 风格的服务需指定为 Scripts;添加 VIP 与 Httpd 两个资源;

6)定义组“Group”,把 VIP 与 httpd 添加进组中;

7)启动组;

8)模拟故障,在 web GUI 界面切换组资源在节点上的运行;

我们也可以在 shell 命令行下查看节点状态:

[root@server11 ~]# clustat

Cluster Status for My_Cluster @ Sat Jul 26 11:28:36 2014

Member Status: Quorate

 

 Member Name                                                    ID  Status

 —— —-                                                    —- ——

 server11.neo.com                                                    1 Online, Local, rgmanager

 server12.neo.com                                                    2 Online, rgmanager

 server13.neo.com                                                    3 Online, rgmanager

 

 Service Name                                                    Owner (Last)                                                    State       

 ——- —-                                                    —– ——                                                    —–       

 service:webserver                                                server13.neo.com                                                started

至此一个简单的 web 高可用集群服务部署完成。

相关的命令行管理工具:

clusvcadm

cman_tool

ccs_tool

cman 的配置文件在 /etc/cluster/cluster.conf

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-07/104786p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计12851字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7992141
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
免费领取huggingface的2核16G云服务器,超简单教程

免费领取huggingface的2核16G云服务器,超简单教程

免费领取 huggingface 的 2 核 16G 云服务器,超简单教程 前言 HuggingFace.co...
星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛 NAS-7:手把手教你免费内网穿透 -Cloudflare tunnel 前言 大家好,我是星...
星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛 NAS-5:飞牛 NAS 中的 Docker 功能介绍 大家好,我是星哥,今天给大家带来如何在...
在Windows系统中通过VMware安装苹果macOS15

在Windows系统中通过VMware安装苹果macOS15

在 Windows 系统中通过 VMware 安装苹果 macOS15 许多开发者和爱好者希望在 Window...
【1024程序员】我劝你赶紧去免费领一个AWS、华为云等的主机

【1024程序员】我劝你赶紧去免费领一个AWS、华为云等的主机

【1024 程序员】我劝你赶紧去免费领一个 AWS、华为云等的主机 每年 10 月 24 日,程序员们都会迎来...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
每年0.99刀,拿下你的第一个顶级域名,详细注册使用

每年0.99刀,拿下你的第一个顶级域名,详细注册使用

每年 0.99 刀,拿下你的第一个顶级域名,详细注册使用 前言 作为长期折腾云服务、域名建站的老玩家,星哥一直...
仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

仅2MB大小!开源硬件监控工具:Win11 无缝适配,CPU、GPU、网速全维度掌控

还在忍受动辄数百兆的“全家桶”监控软件?后台偷占资源、界面杂乱冗余,想查个 CPU 温度都要层层点选? 今天给...
自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个 AI 智能体 — 跟创业大佬对话 前言 智能体(Agent)已经成为创业者和技术人绕...
安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装Black群晖DSM7.2系统安装教程(在Vmware虚拟机中、实体机均可)!

安装 Black 群晖 DSM7.2 系统安装教程(在 Vmware 虚拟机中、实体机均可)! 前言 大家好,...
星哥带你玩飞牛NAS-16:飞牛云NAS换桌面,fndesk图标管理神器上线!

星哥带你玩飞牛NAS-16:飞牛云NAS换桌面,fndesk图标管理神器上线!

  星哥带你玩飞牛 NAS-16:飞牛云 NAS 换桌面,fndesk 图标管理神器上线! 引言 哈...