阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Linux CentOS 服务器搭建与初始化配置图文详解

496次阅读
没有评论

共计 12868 个字符,预计需要花费 33 分钟才能阅读完成。

这几天对服务器兴趣贼为浓厚,在虚拟机上装了一个 CentOS7 玩了玩,遇到过很多问题,比如网卡驱动设置,不能 ping 等等问题,然后掏钱买个 ECS 搭服务器玩玩,下面就开始谢谢我的心路历程吧。

首先

买服务器,什么阿里云,百度云、腾讯云等等,随便买一个低配就好了,我买的学生机,9.9 一个月,便宜的不能再便宜了,廉价的不能再廉价了。

(自带 mysql 数据库,php Apache 运行环境,FTP,VSftpd,这让我省了很多事)

第一步:安装 jdk

去官网下载 jdk(官网:http://www.Oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html)

Linux CentOS 服务器搭建与初始化配置图文详解

rz,上传 JDK,(比如我的目录是 /usr/java)

Linux CentOS 服务器搭建与初始化配置图文详解

然后解压 jdk:tar -zxvf jdk-8u141-linux-x64.tar.gz

接下来配置环境变量,环境变量路径:/etc/profile(可以先 copy 一份,cp /etc/profile /etc/profile1)

vi /etc/profile 找到 export,添加如下内容

export JAVA_HOME=/usr/java/jdk/jdk1.8.0_112
export JRE_HOME=/usr/java/jdk/jdk1.8.0_112/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$JAVA_HOME:$PATH(ps:根据各字的 jdk 版本稍加修改,后面不做阐述了哈)

ZZ 保存,然后输入命令:source /etc/profile。

OK,JDK 配置完成。

Linux CentOS 服务器搭建与初始化配置图文详解

第二步:安装 tomcat

学过 java 的不用说,服务器不可少,还是老样子,上官网下载压缩包(官网:http://tomcat.apache.org/download-90.cgi)

Linux CentOS 服务器搭建与初始化配置图文详解

rz,上传压缩包(比如我的上传路径是:/home)

Linux CentOS 服务器搭建与初始化配置图文详解

然后解压:tar -zxvf apache-tomcat-9.0.0.M22.tar.gz

启动 tomcat 方法一:进入该目录,./startup.sh。方法二:路径./startup.sh,比如:/home/apache-tomcat-9.0.0.M22/bin/./startup.sh
关闭 tomcat 方法一:进入该目录,./shutdown.sh。方法二:路径./shutdown.sh,比如:/home/apache-tomcat-9.0.0.M22/bin/./shutdown.sh

修改端口号在 ……../tomcat/conf/server.xml

Linux CentOS 服务器搭建与初始化配置图文详解

现在我们可以启动 tomcat 来看看是否配置成功了,启动 tomcat,在浏览器输入 http://ip: 端口号(http://59.110.158.250:8080)

Linux CentOS 服务器搭建与初始化配置图文详解

当然,不会有那么想象中那么顺利,因为这还有一个重要的安全组,我们打开控制台,点配置规则

Linux CentOS 服务器搭建与初始化配置图文详解

Linux CentOS 服务器搭建与初始化配置图文详解

3389、22、-1,都是系统给配置好的,3306,虽然自带数据库,但是外部并不能访问,要把 3306 端口在安全组放开才能访问,如果放开了还不能访问,那就是要 mysql 的权限问题了,可以上网搜搜相关教程,http 的 80 端口毋庸置疑是必须打开的,https 的 443 端口我也打开了,还有 nginx 的 90 端口,为什么是 90 端口?因为我在前面说了,自带 php apache 的运行环境,端口号为 80,如果 nginx 也是 80 的话会造成端口号冲突。8080 就是大家都熟悉的 8080 端口了。(详细安全组参考:https://help.aliyun.com/document_detail/25475.html)端口号开放了,那么我们的 tomcat 服务器就搞定了,只要把相应的项目打成 war 包部署到 webapps 目录下即可。

OK,我们的服务器也配完了,接下来配 nginx 吧。

第三步:安装并配置 nginx

进入:/usr/java/nginx 位置
下载 nginx: wget http://nginx.org/download/nginx-1.8.0.tar.gz
下载 openssl : wget http://www.openssl.org/source/openssl-fips-2.0.9.tar.gz
下载 zlib : wget http://zlib.net/zlib-1.2.8.tar.gz
下载 pcre : wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.38.tar.gz

(如果上面的包找不到,那就在自己电脑上下载然后上传到服务器即可,比如我的 nginx 是我自己下的版本 nginx1.12.1,官网:http://nginx.org/en/download.html)

(nginx1.12.1:http://nginx.org/download/nginx-1.12.1.tar.gz)
如果没有安装 c ++ 编译环境,还得安装,通过 yum install gcc-c++ 完成安装

 

下一步,编译安装

____________________________________________________________________________________
openssl:

 

[root@localhost] tar zxvf openssl-fips-2.0.9.tar.gz

 

[root@localhost] cd openssl-fips-2.0.9

 

[root@localhost] ./config && make && make install

_____________________________________________________________________________________
pcre:

 
 

[root@localhost] tar zxvf pcre-8.36.tar.gz

 

[root@localhost] cd pcre-8.36

 

[root@localhost] ./configure && make && make install

 

 _____________________________________________________________________________________

 

zlib:

 

[root@localhost]tar zxvf zlib-1.2.8.tar.gz

 

[root@localhost] cd zlib-1.2.8

 

[root@localhost] ./configure && make && make install

 

 _____________________________________________________________________________________

 

最后安装 nginx

 

[root@localhost]tar zxvf nginx-1.8.0.tar.gz

 

[root@localhost] cd nginx-1.8.0

 

[root@localhost] ./configure && make && make install

 

_______________________________________________________________________________________
启动 nginx
/usr/local/nginx/sbin/nginx 

如果启动不成功因为端口号冲突,修改已经存在的 80 端口或者修改 nginx 的 80 端口,(注意:修改 nginx 端口不是在 /usr/java/nginx 位置,而是在 /usr/local/nginx/conf/nginx.conf)

Linux CentOS 服务器搭建与初始化配置图文详解

启动成功之后,我们可以在浏览器访问,看看是否成功配置 nginx

Linux CentOS 服务器搭建与初始化配置图文详解

我们的 nginx 配置成功,关于 nginx 负载均衡参考 http://www.linuxidc.com/Linux/2016-01/127255.htm,这里我详细说一下 nginx 配置文件

######Nginx 配置文件 nginx.conf 中文详解 #####

# 定义 Nginx 运行的用户和用户组
user www www;

#nginx 进程数,建议设置为等于 CPU 总核心数。
worker_processes8;

# 全局错误日志定义类型,[debug| info | notice | warn | error | crit ]
error_log
/usr/local/nginx/logs/error.log info;

# 进程 pid 文件
pid/usr/local/nginx/logs/nginx.pid;

# 指定进程可以打开的最大描述符:数目
# 工作模式与连接数上限
# 这个指令是指当一个 nginx 进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit-n)与 nginx 进程数相除,但是 nginx 分配请求并不是那么均匀,所以最好与 ulimit –n 的值保持一致。
# 现在在 linux
2.6 内核下开启文件打开数为 65535,worker_rlimit_nofile 就相应应该填写 65535。
# 这是因为 nginx 调度时分配请求到进程并不是那么的均衡,所以假如填写 10240,总并发量达到 3
4 万时就有进程可能超过 10240 了,这时会返回 502 错误。
worker_rlimit_nofile
65535;

events
{
    #参考事件模型,use [kqueue| rtsig | epoll | /dev/poll | select | poll ]; epoll 模型
    #是 Linux
2.6 以上版本内核中的高性能网络 I / O 模型,linux 建议 epoll,如果跑在 FreeBSD 上面,就用 kqueue 模型。
    #补充说明:
    #与 apache 相类,nginx 针对不同的操作系统,有不同的事件模型
    #A)标准事件模型
    #Select、poll 属于标准事件模型,如果当前系统不存在更有效的方法,nginx 会选择 select 或 poll
    #B)高效事件模型
    #Kqueue:使用于 FreeBSD
4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X. 使用双处理器的 MacOS X 系统使用 kqueue 可能会造成内核崩溃。
    #Epoll:使用于 Linux 内核 2.6 版本及以后的系统。
    #
/dev/poll:使用于 Solaris 7 11/99+,HP/UX 11.22+ (eventport),IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+
    #Eventport:使用于 Solaris
10。为了防止出现内核崩溃的问题,有必要安装安全补丁。
    use epoll;

    #单个进程最大连接数(最大连接数 = 连接数 * 进程数)
    #根据硬件调整,和前面工���进程配合起来用,尽量大,但是别把 cpu 跑到 100
%就行。每个进程允许的最多连接数,理论上每台 nginx 服务器的最大连接数为。
    worker_connections
65535;

    #keepalive 超时时间。
    keepalive_timeout60;

    #客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过 1k,不过由于一般系统分页都要大于 1k,所以这里设置为分页大小。
    #分页大小可以用命令 getconf PAGESIZE 取得。
    #[root@web001~]# getconf PAGESIZE
    #
4096
    #但也有 client_header_buffer_size 超过 4k 的情况,但是 client_header_buffer_size 该值必须设置为“系统分页大小”的整倍数。
    client_header_buffer_size 4k;

    #这个将为打开文件指定缓存,默认是没有启用的,max 指定缓存数量,建议和打开文件数一致,inactive 是指经过多长时间文件没被请求后删除缓存。
    open_file_cache max=65535 inactive=60s;

    #这个是指多长时间检查一次缓存的有效信息。
    #语法:open_file_cache_valid time 默认值:open_file_cache_valid60 使用字段:http, server, location 这个指令指定了何时需要检查 open_file_cache 中缓存项目的有效信息.
    open_file_cache_valid 80s;

    #open_file_cache 指令中的 inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在 inactive 时间内一次没被使用,它将被移除。
    #语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses1 使用字段:http, server, location  这个指令指定了在 open_file_cache 指令无效的参数中一定的时间范围内可以使用的最小文件数, 如果使用更大的值, 文件描述符在 cache 中总是打开状态.
    open_file_cache_min_uses
1;
   
    #语法:open_file_cache_errors on
| off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录 cache 错误.
    open_file_cache_errors on;
}

# 设定 http 服务器,利用它的反向代理功能提供负载均衡支持
http
{
    #文件扩展名与文件类型映射表
    include mime.types;

    #默认文件类型
    default_type application/octet-stream;

    #默认编码
    #charset utf-8;

    #服务器名字的 hash 表大小
    #保存服务器名字的 hash 表是由指令 server_names_hash_max_size 和 server_names_hash_bucket_size 所控制的。参数 hash bucket size 总是等于 hash 表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找 hash 表键值成为可能。如果 hash bucket size 等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为 2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果 Nginx 给出需要增大 hash max size 或 hash bucket size 的提示,那么首要的是增大前一个参数的大小.
    server_names_hash_bucket_size128;

    #客户端请求头部的缓冲区大小。这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过 1k,不过由于一般系统分页都要大于 1k,所以这里设置为分页大小。分页大小可以用命令 getconf PAGESIZE 取得。
    client_header_buffer_size 32k;

    #客户请求头缓冲大小。nginx 默认会用 client_header_buffer_size 这个 buffer 来读取 header 值,如果 header 过大,它会使用 large_client_header_buffers 来读取。
    large_client_header_buffers4 64k;

    #设定通过 nginx 上传文件的大小
    client_max_body_size 8m;

    #开启高效文件传输模式,sendfile 指令指定 nginx 是否调用 sendfile 函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘 IO 重负载应用,可设置为 off,以平衡磁盘与网络 I / O 处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成 off。
    #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,必须设为 on。如果用来进行下载等应用磁盘 IO 重负载应用,可设置为 off,以平衡磁盘与网络 IO 处理速度,降低系统 uptime。
    sendfile on;

    #开启目录列表访问,合适下载服务器,默认关闭。
    autoindex on;

    #此选项允许或禁止使用 socke 的 TCP_CORK 的选项,此选项仅在使用 sendfile 的时候使用
    tcp_nopush on;
   
    tcp_nodelay on;

    #长连接超时时间,单位是秒
    keepalive_timeout120;

    #FastCGI 相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。
    fastcgi_connect_timeout300;
    fastcgi_send_timeout
300;
    fastcgi_read_timeout
300;
    fastcgi_buffer_size 64k;
    fastcgi_buffers
4 64k;
    fastcgi_busy_buffers_size 128k;
    fastcgi_temp_file_write_size 128k;

    #gzip 模块设置
    gzip on; #开启 gzip 压缩输出
    gzip_min_length 1k;    #最小压缩文件大小
    gzip_buffers4 16k;    #压缩缓冲区
    gzip_http_version
1.0;    #压缩版本(默认 1.1,前端如果是 squid2.5 请使用 1.0
    gzip_comp_level
2;    #压缩等级
    gzip_types text
/plain application/x-javascript text/css application/xml;    #压缩类型,默认就已经包含 textml,所以下面就不用再写了,写上去也不会有问题,但是会有一个 warn。
    gzip_vary on;

    #开启限制 IP 连接数的时候需要使用
    #limit_zone crawler $binary_remote_addr 10m;

    #负载均衡配置
    upstream piao.jd.com {
   
        #upstream 的负载均衡,weight 是权重,可以根据机器配置定义权重。weigth 参数表示权值,权值越高被分配到的几率越大。
        server192.168.80.121:80 weight=3;
        server
192.168.80.122:80 weight=2;
        server
192.168.80.123:80 weight=3;

        #nginx 的 upstream 目前支持 4 种方式的分配
        #1、轮询(默认)
        #每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
        #
2、weight
        #指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。
        #例如:
        #upstream bakend {
        #    server
192.168.0.14 weight=10;
        #    server
192.168.0.15 weight=10;
        #}
        #
2、ip_hash
        #每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。
        #例如:
        #upstream bakend {
        #    ip_hash;
        #    server
192.168.0.14:88;
        #    server
192.168.0.15:80;
        #}
        #
3、fair(第三方)
        #按后端服务器的响应时间来分配请求,响应时间短的优先分配。
        #upstream backend {
        #    server server1;
        #    server server2;
        #    fair;
        #}
        #
4、url_hash(第三方)
        #按访问 url 的 hash 结果来分配请求,使每个 url 定向到同一个后端服务器,后端服务器为缓存时比较有效。
        #例:在 upstream 中加入 hash 语句,server 语句中不能写入 weight 等其他的参数,hash_method 是使用的 hash 算法
        #upstream backend {
        #    server squid1:
3128;
        #    server squid2:
3128;
        #    hash $request_uri;
        #    hash_method crc32;
        #}

        #tips:
        #upstream bakend{# 定义负载均衡设备的 Ip 及设备状态}{
        #    ip_hash;
        #    server127.0.0.1:9090 down;
        #    server
127.0.0.1:8080 weight=2;
        #    server
127.0.0.1:6060;
        #    server
127.0.0.1:7070 backup;
        #}
        #在需要使用负载均衡的 server 中增加 proxy_pass http:
//bakend/;

        #每个设备的状态设置为:
        #
1.down 表示单前的 server 暂时不参与负载
        #
2.weight 为 weight 越大,负载的权重就越大。
        #
3.max_fails:允许请求失败的次数默认为 1. 当超过最大次数时,返回 proxy_next_upstream 模块定义的错误
        #
4.fail_timeout:max_fails 次失败后,暂停的时间。
        #
5.backup:其它所有的非 backup 机器 down 或者忙的时候,请求 backup 机器。所以这台机器压力会最轻。

        #nginx 支持同时设置多组的负载均衡,用来给不用的 server 来使用。
        #client_body_in_file_only 设置为 On 可以讲 client post 过来的数据记录到文件中用来做 debug
        #client_body_temp_path 设置记录文件的目录 可以设置最多 3 层目录
        #location 对 URL 进行匹配. 可以进行重定向或者进行新的代理 负载均衡
    }
   
   
   
    #虚拟主机的配置
    server
    {
        #监听端口
        listen80;

        #域名可以有多个,用空格隔开
        server_name www.jd.com jd.com;
        index index.html index.htm index.php;
        root/data/www/jd;

        #对 ****** 进行负载均衡
        location
~ .*.(php|php5)?$
        {
            fastcgi_pass
127.0.0.1:9000;
            fastcgi_index index.php;
            include fastcgi.conf;
        }
       
        #图片缓存时间设置
        location
~ .*.(gif|jpg|jpeg|png|bmp|swf)$
        {
            expires 10d;
        }
       
        #JS 和 CSS 缓存时间设置
        location
~ .*.(js|css)?$
        {
            expires 1h;
        }
       
        #日志格式设定
        #$remote_addr 与 $http_x_forwarded_for 用以记录客户端的 ip 地址;
        #$remote_user:用来记录客户端用户名称;
        #$time_local:用来记录访问时间与时区;
        #$request:用来记录请求的 url 与 http 协议;
        #$status:用来记录请求状态;成功是 200,
        #$body_bytes_sent:记录发送给客户端文件主体内容大小;
        #$http_referer:用来记录从那个页面链接访问过来的;
        #$http_user_agent:记录客户浏览器的相关信息;
        #通常 web 服务器放在反向代理的后面,这样就不能获取到客户的 IP 地址了,��过 $remote_add 拿到的 IP 地址是反向代理服务器的 iP 地址。反向代理服务器在转发请求的 http 头信息中,可以增加 x_forwarded_for 信息,用以记录原有客户端的 IP 地址和原来客户端的请求的服务器地址。
        log_format access
‘$remote_addr – $remote_user [$time_local] “$request” ‘
        ‘$status $body_bytes_sent “$http_referer” ‘
        ‘”$http_user_agent” $http_x_forwarded_for’;
       
        #定义本虚拟主机的访问日志
        access_log 
/usr/local/nginx/logs/host.access.log  main;
        access_log 
/usr/local/nginx/logs/host.access.404.log  log404;
       
        #对
“/” 启用反向代理
        location
/ {
            proxy_pass http:
//127.0.0.1:88;
            proxy_redirect off;
            proxy_set_header X
-Real-IP $remote_addr;
           
            #后端的 Web 服务器可以通过 X
-Forwarded-For 获取用户真实 IP
            proxy_set_header X
-Forwarded-For $proxy_add_x_forwarded_for;
           
            #以下是一些反向代理的配置,可选。
            proxy_set_header Host $host;

            #允许客户端请求的最大单文件字节数
            client_max_body_size 10m;

            #缓冲区代理缓冲用户端请求的最大字节数,
            #如果把它设置为比较大的数值,例如 256k,那么,无论使用 firefox 还是 IE 浏览器,来提交任意小于 256k 的图片,都很正常。如果注释该指令,使用默认的 client_body_buffer_size 设置,也就是操作系统页面大小的两倍,8k 或者 16k,问题就出现了。
            #无论使用 firefox4.0 还是 IE8.0,提交一个比较大,200k 左右的图片,都返回 500 Internal Server Error 错误
            client_body_buffer_size 128k;

            #表示使 nginx 阻止 HTTP 应答代码为 400 或者更高的应答。
            proxy_intercept_errors on;

            #后端服务器连接的超时时间_发起握手等候响应超时时间
            #nginx 跟后端服务器连接超时时间(代理连接超时)
            proxy_connect_timeout90;

            #后端服务器数据回传时间(代理发送超时)
            #后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据
            proxy_send_timeout90;

            #连接成功后,后端服务器响应时间(代理接收超时)
            #连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)
            proxy_read_timeout90;

            #设置代理服务器(nginx)保存用户头信息的缓冲区大小
            #设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令 proxy_buffers 中指定的一个缓冲区的大小,不过可以将其设置为更小
            proxy_buffer_size 4k;

            #proxy_buffers 缓冲区,网页平均在 32k 以下的设置
            #设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是 4k 或者 8k
            proxy_buffers4 32k;

            #高负荷下缓冲大小(proxy_buffers*2
            proxy_busy_buffers_size 64k;

            #设置在写入 proxy_temp_path 时数据的大小,预防一个工作进程在传递文件时阻塞太长
            #设定缓存文件夹大小,大于这个值,将从 upstream 服务器传
            proxy_temp_file_write_size 64k;
        }
       
       
        #设定查看 Nginx 状态的地址
        location/NginxStatus {
            stub_status on;
            access_log on;
            auth_basic
“NginxStatus”;
            auth_basic_user_file confpasswd;
            #htpasswd 文件的内容可以用 apache 提供的 htpasswd 工具来产生。
        }
       
        #本地动静分离反向代理配置
        #所有 jsp 的页面均交由 tomcat 或 resin 处理
        location
~ .(jsp|jspx|do)?$ {
            proxy_set_header Host $host;
            proxy_set_header X
-Real-IP $remote_addr;
            proxy_set_header X
-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_pass http:
//127.0.0.1:8080;
        }
       
        #所有静态文件由 nginx 直接读取不经过 tomcat 或 resin
        location
~ .*.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|
        pdf
|xls|mp3|wma)$
        {
            expires 15d;
        }
       
        location
~ .*.(js|css)?$
        {
            expires 1h;
        }
    }
}
######Nginx 配置文件 nginx.conf 中文详解 #####
 

赶快去搭建属于你自己的服务器吧

本文永久更新链接地址:http://www.linuxidc.com/Linux/2017-07/145878.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计12868字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7983409
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
终于收到了以女儿为原型打印的3D玩偶了

终于收到了以女儿为原型打印的3D玩偶了

终于收到了以女儿为原型打印的 3D 玩偶了 前些日子参加某网站活动,获得一次实物 3D 打印的机会,于是从众多...
每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站-手机博物馆-CHAZ 3D Experience

每天一个好玩的网站 - 手机博物馆 -CHAZ 3D Experience 一句话介绍:一个用 3D 方式重温...
你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你

你的云服务器到底有多强?宝塔跑分告诉你 为什么要用宝塔跑分? 宝塔跑分其实就是对 CPU、内存、磁盘、IO 做...
开源MoneyPrinterTurbo 利用AI大模型,一键生成高清短视频!

开源MoneyPrinterTurbo 利用AI大模型,一键生成高清短视频!

  开源 MoneyPrinterTurbo 利用 AI 大模型,一键生成高清短视频! 在短视频内容...
CSDN,你是老太太喝粥——无齿下流!

CSDN,你是老太太喝粥——无齿下流!

CSDN,你是老太太喝粥——无齿下流! 大家好,我是星哥,今天才思枯竭,不写技术文章了!来吐槽一下 CSDN。...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
星哥带你玩飞牛NAS-14:解锁公网自由!Lucky功能工具安装使用保姆级教程

星哥带你玩飞牛NAS-14:解锁公网自由!Lucky功能工具安装使用保姆级教程

星哥带你玩飞牛 NAS-14:解锁公网自由!Lucky 功能工具安装使用保姆级教程 作为 NAS 玩家,咱们最...
多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞...
星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛 NAS-12:开源笔记的进化之路,效率玩家的新选择 前言 如何高效管理知识与笔记,已经成为技术...
浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍

浏览器自动化工具!开源 AI 浏览器助手让你效率翻倍 前言 在 AI 自动化快速发展的当下,浏览器早已不再只是...
把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地

把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地

把小米云笔记搬回家:飞牛 NAS 一键部署,小米云笔记自动同步到本地 大家好,我是星哥,今天教大家在飞牛 NA...