阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

简单3步部署本地国产大模型DeepSeek大模型

691次阅读
没有评论

共计 5396 个字符,预计需要花费 14 分钟才能阅读完成。

简单 3 步部署本地国产大模型 DeepSeek 大模型

DeepSeek 是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。

无奈,在使用时候 deepseek 总是提示服务器繁忙,请稍后再试。

简单 3 步部署本地国产大模型 DeepSeek 大模型

本文将介绍如何通过简单 3 步在本地部署 DeepSeek 大模型,让你能够轻松体验这一强大的 AI 工具。

简单 3 步部署本地国产大模型 DeepSeek 大模型

Deepseek 对世界的影响

改变 AI 行业格局

  • 冲击国际 AI 竞争态势:打破了美国等西方国家的 AI 巨头长期领先的局面,使全球 AI 竞争进入技术多极化时代,如微软、亚马逊云科技、英伟达等国际科技巨头纷纷宣布接入 DeepSeek。

  • 引发行业洗牌:其他 AI 公司感受到压力,加快技术研发和创新步伐,如 OpenAI 紧急上线新一代推理模型,阿里云发布升级版通义千问旗舰模型。

影响全球科技股市场

  • 引发股价波动:英伟达等芯片制造商以及美国的微软、Meta 和谷歌母公司 Alphabet 等科技巨头的股价受到冲击。

  • 改变投资风向:吸引了大量资本的关注,让投资者对中国的 AI 产业有了更高的期待,可能会导致更多的资金流向中国的 AI 企业。

推动全球 AI 技术发展

  • 提供技术思路:在模型架构、算法等方面实现了多项创新,如采用创新性的混合专家架构等,为全球 AI 研究人员提供了新的思路。

  • 加速技术普及:开源策略让更多的开发者和企业能够接触到先进的 AI 技术,降低了 AI 技术的使用门槛,加速其在各个领域的普及。

影响社会文化领域

  • 改变工作生活方式:在自然语言处理等方面的能力,可提高翻译、写作、代码生成等工作效率,在制定旅行攻略、翻译外语等日常生活场景中也广泛应用。

  • 引发伦理监管讨论:国际社会对 AI 伦理问题关注度提升,数据安全、隐私保护和内容监管等问题成为焦点,促使各国制定更严格的 AI 大模型监管政策。

环境准备

部署方案:Ollama + DeepSeek-R1 + Open WebUI

笔者的电脑硬件配置如下:

系统:Window11

CPU: 13th i7-13700KF

内存:32G

显卡:Nvidia GeForce RTX 4070Ti

可以运行大模型 deepseek-r1 的哪个版本的大模型?

简单 3 步部署本地国产大模型 DeepSeek 大模型

问 deepseek 得到的回答:

最佳选择:优先尝试 DeepSeek-R1-7B 4-bit 量化版,平衡速度和性能;若需要更高精度,可测试 DeepSeek-R1-13B 4-bit 量化版(需确保显存无其他占用)。建议关注官方发布的轻量化版本或社区优化方案(如 GPTQ)。

什么是 Ollama

Ollama 是一个开源项目,旨在让用户能够轻松地在其本地计算机上运行大型语言模型(LLM),是一个开源的大型语言模型服务。它支持各种 LLM,包括 Llama 3、Mistral 和 Gemma。

提供了类似 OpenAI 的 API 接口和聊天界面, 可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件, 无需重新启动即可切换不同的模型。

简单 3 步部署本地国产大模型 DeepSeek 大模型

Ollama 官网:https://ollama.com/

Ollama GitHub 仓库:https://github.com/ollama/ollama

第一步、安装 Ollama

下载 Ollama

Ollama 下载地址:https://ollama.com/download

支持 macOS、Linux、Windows 系统,根据自己的系统,下载安装包:

Download for windows

简单 3 步部署本地国产大模型 DeepSeek 大模型

安装 Ollama

windows 系统下安装也比较方便,双击打开 install

简单 3 步部署本地国产大模型 DeepSeek 大模型

安装完成没有提示,我们打开一个终端,本文以 Windows PowerShell 为例,大家也可以使用其他的:

简单 3 步部署本地国产大模型 DeepSeek 大模型

现在 Ollama 已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

ollama run qwen

简单 3 步部署本地国产大模型 DeepSeek 大模型

安装成功,随便问几个问题。

简单 3 步部署本地国产大模型 DeepSeek 大模型

理论上就安装完成了,可以只在命令行中使用大模型了。

修改路径文件保存路径

可以不用改,如果 C 盘空间不够用,建议修改。

可以看到,系统正在下载 qwen 的模型(并保存在 C 盘,C:\Users<username>.ollama\models 如果想更改默认路径,可以通过设置 OLLAMA_MODELS 进行修改,然后重启终端,重启 ollama 服务。)

setx OLLAMA_MODELS"D:\ollama\model"

运行 DeepSeek

https://ollama.com/library/deepseek-r1

DeepSeek-R1 模型有多个版本,可以根据需要选择不同版本,例如 ollama run deepseek-r1:671b,详情如下(模型参数越大,需要配置越高):

在 DeepSeek-R1 系列中,还有 1.5B、7B、8B、14B、32B、70B、671B 等不同参数规模的型号。这些不同规模的模型在模型能力、资源需求和应用场景上有所不同。

ollama run deepseek-r1:1.5b【电脑配置低的可以运行此版本,根据文件大小和网络情况,下载时间也不确定】
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b

我这里选择运行 7b(70 亿参数)

简单 3 步部署本地国产大模型 DeepSeek 大模型

Ollama 常用命令(可忽略)

省流版命令:ollama list 和 ollama rm [模型名称]。

模型管理

  1. 创建模型

    • 命令:ollama create [Modelfile 路径]

    • 功能:使用包含模型信息的 Modelfile 来创建一个新模型。

  2. 显示模型信息

    • 命令 1:ollama show [模型名称]

    • 功能:显示特定模型的详细信息,如模型名称、版本等。

    • 命令 2:/show(在会话界面中使用)

  3. 列出所有模型

    • 命令 1:ollama list

    • 命令 2:ollama ls

    • 功能:列出本地所有可用的模型,可以在这里查找模型名称。

  4. 从注册表中拉取模型

    • 命令:ollama pull [模型名称]

    • 功能:从模型注册表中拉取一个模型到本地使用。

  5. 将模型推送到注册表

    • 命令:ollama push [模型名称]

    • 功能:将本地模型推送到模型注册表中,以便他人或其他系统使用。

  6. 复制模型

    • 命令:ollama cp [原模型名称] [新模型名称]

    • 功能:复制一个模型到另一个位置或给定名称的地方。

  7. 删除模型

    • 命令:ollama rm [模型名称]

    • 功能:删除一个已安装的模型。

模型运行与会话管理

  1. 运行模型

    • 命令:ollama run [模型名称]

    • 功能:运行一个已安装的模型,执行某些任务。可以根据需要指定模型的参数和配置。

  2. 加载模型

    • 命令:/load <model>

    • 功能:在会话界面中加载一个特定的模型或会话。可以指定一个模型的名称或路径来加载它。

  3. 保存模型或会话状态

    • 命令:/save <model>

    • 功能:在会话界面中保存当前的会话状态或模型。可以将当前会话或模型的配置保存为一个文件,以便以后使用。

  4. 清理上下文

    • 命令:/clear

    • 功能:清除会话上下文。这将删除当前会话中的所有历史记录或对话内容。

  5. 退出对话模型

    • 命令:/bye

    • 功能:退出当前与模型的对话,并退出程序。

其他命令

  1. 获取帮助信息

    • 命令 1:ollama help [命令名称]

    • 命令 2:ollama --help

    • 功能:获取有关 Ollama 任何命令的帮助信息。如果指定了命令名称,则显示该命令的详细帮助信息。

  2. 查看版本信息

    • 命令 1:ollama version

    • 命令 2:ollama -v

    • 命令 3:ollama --version

    • 功能:显示当前 Ollama 工具的版本信息。

  3. 查看快捷键

    • 命令:/?shortcuts

    • 功能:在会话界面中查看键盘快捷键的帮助信息,帮助更快速地进行操作。

  4. 设置会话参数和配置

    • 命令:/set 参数名 参数值

    • 功能:用于设置会话参数和配置,例如设置消息格式、启用或禁用历史记录等。

第二步、安装 Docker

Open WebUI 是一个用于在本地运行大型语言模型(LLM)的开源 Web 界面。

Open WebUI 是在 docker 中安装的,所以要先安装 docker。

在 window 下安装 docker

1. 启动 Hyper-v

打开控制面板,在程序与功能页面选择启用或 Windows 功能

简单 3 步部署本地国产大模型 DeepSeek 大模型

然后,重启计算机。

2. 安装 WSL

打开 powershell,以管理员的身份启动命令窗口,输入

wsl --install

如果不是已管理员身份启动则会报错:请求的操作需要提升

简单 3 步部署本地国产大模型 DeepSeek 大模型

然后再次重启电脑。

简单 3 步部署本地国产大模型 DeepSeek 大模型

3. 下载 Docker 软件

点击下载链接:https://docs.docker.com/desktop/install/windows-install/

简单 3 步部署本地国产大模型 DeepSeek 大模型

4. 安装 Docker

简单 3 步部署本地国产大模型 DeepSeek 大模型

第三步、使用 Docker 部署 Open WebUI

开源地址:https://github.com/open-webui/open-webui

参考:https://github.com/open-webui/open-webui?tab=readme-ov-file#installation-with-default-configuration

可以看到,如果你的 Ollama 和 Open WebUI 在同一台主机,那使用下面显示的这一行命令就可以在本地快速进行部署:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

 由于我的电脑有 GPU

 此时我使用的是:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

现在我们打开终端,比如 powershell,然后输入 docker,回车

简单 3 步部署本地国产大模型 DeepSeek 大模型

然后将上边在 docker 中部署 Open WebUI 的命令复制后粘贴到终端中,回车。

docker 安装 open-webui

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

如果您仅使用 OpenAI API,请使用以下命令:

docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果仅适用于 CPU,不使用 GPU,请改用以下命令:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

简单 3 步部署本地国产大模型 DeepSeek 大模型

使用浏览器 Open WebUI

安装完成后,在 Docker Desktop 中可以看到 Open WebUI 的 web 界面地址为:http://localhost:3000

或者内网 IP+ 端口,这样局域网的其他人也可以访问到,甚至是通过内网穿透,让其他人也可以访问。

简单 3 步部署本地国产大模型 DeepSeek 大模型

注册账号点击 sign up

登录

简单 3 步部署本地国产大模型 DeepSeek 大模型

设置为简体中文

点击右上角的设置,可以修改当前界面的语言为简体中文:然后点击保存即可。

简单 3 步部署本地国产大模型 DeepSeek 大模型

点击上方选择一个模型旁边的加号 + 可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,接下来就可以愉快的跟 ai 聊天了!

简单 3 步部署本地国产大模型 DeepSeek 大模型

结束语

从环境准备到获取模型文件,再到加载并运行模型,整个过程清晰明了,适合初学者和有一定经验的开发者。

使用 Ollama 在本地搭建 DeepSeek 具有充分利用本地算力、保护数据隐私、便捷更新模型等优点,但同时也存在硬件要求高、技术门槛高、部署过程繁琐等缺点。用户在选择是否进行本地部署时,应根据自己的实际需求和技术水平进行权衡。

写文不易,如果你都看到了这里,请点个赞和在看,分享给更多的朋友;也别忘了关注星哥玩云!这里有满满的干货分享,还有轻松有趣的技术交流~点个赞、分享给身边的小伙伴,一起成长,一起玩转技术世界吧!😊

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2025-02-06发表,共计5396字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19350
评论数
4
阅读量
7954320
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛NAS硬件03:五盘位+N5105+双网口的成品NAS值得入手吗

星哥带你玩飞牛NAS硬件03:五盘位+N5105+双网口的成品NAS值得入手吗

星哥带你玩飞牛 NAS 硬件 03:五盘位 +N5105+ 双网口的成品 NAS 值得入手吗 前言 大家好,我...
星哥带你玩飞牛NAS-11:咪咕视频订阅部署全攻略

星哥带你玩飞牛NAS-11:咪咕视频订阅部署全攻略

星哥带你玩飞牛 NAS-11:咪咕视频订阅部署全攻略 前言 在家庭影音系统里,NAS 不仅是存储中心,更是内容...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛NAS-5:飞牛NAS中的Docker功能介绍

星哥带你玩飞牛 NAS-5:飞牛 NAS 中的 Docker 功能介绍 大家好,我是星哥,今天给大家带来如何在...
飞牛NAS玩转Frpc并且配置,随时随地直连你的私有云

飞牛NAS玩转Frpc并且配置,随时随地直连你的私有云

飞牛 NAS 玩转 Frpc 并且配置,随时随地直连你的私有云 大家好,我是星哥,最近在玩飞牛 NAS。 在数...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个AI智能体—跟创业大佬对话

自己手撸一个 AI 智能体 — 跟创业大佬对话 前言 智能体(Agent)已经成为创业者和技术人绕...
让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级

让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级

让微信公众号成为 AI 智能体:从内容沉淀到智能问答的一次升级 大家好,我是星哥,之前写了一篇文章 自己手撸一...
免费无广告!这款跨平台AI RSS阅读器,拯救你的信息焦虑

免费无广告!这款跨平台AI RSS阅读器,拯救你的信息焦虑

  免费无广告!这款跨平台 AI RSS 阅读器,拯救你的信息焦虑 在算法推荐主导信息流的时代,我们...
国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号AI知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率

国产开源公众号 AI 知识库 Agent:突破未认证号限制,一键搞定自动回复,重构运营效率 大家好,我是星哥,...
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...