共计 3277 个字符,预计需要花费 9 分钟才能阅读完成。
报错
docker logs docker-plugin_daemon-1
如下的报错
goroutine 1 [running]:
github.com/langgenius/dify-plugin-daemon/internal/utils/log.writeLog({0x1857285, 0x5}, {0x1896127?, 0xc00016d408?}, 0x1, {0xc0004cdf28, 0x1, 0x1})
/app/internal/utils/log/log.go:40 +0x305
github.com/langgenius/dify-plugin-daemon/internal/utils/log.Panic(...)
/app/internal/utils/log/log.go:66
main.main()
/app/cmd/server/main.go:19 +0x9f
2025/04/09 09:48:27 main.go:19: [PANIC]Error processing environment variables: envconfig.Process: assigning S3_USE_AWS_MANAGED_IAM to S3UseAwsManagedIam: converting ''to type bool. details: strconv.ParseBool: parsing"": invalid syntax
panic: [PANIC]Error processing environment variables: envconfig.Process: assigning S3_USE_AWS_MANAGED_IAM to S3UseAwsManagedIam: converting ''to type bool. details: strconv.ParseBool: parsing"": invalid syntax
goroutine 1 [running]:
github.com/langgenius/dify-plugin-daemon/internal/utils/log.writeLog({0x1857285, 0x5}, {0x1896127?, 0xc0001f8008?}, 0x1, {0xc00019df28, 0x1, 0x1})
/app/internal/utils/log/log.go:40 +0x305
github.com/langgenius/dify-plugin-daemon/internal/utils/log.Panic(...)
/app/internal/utils/log/log.go:66
main.main()
/app/cmd/server/main.go:19 +0x9f
解决方法
进入 dify 源代码的 docker 目录,按顺序执行以下命令:
vi .env
把下面三行都删掉。
S3_USE_AWS_MANAGED_IAM: ${PLUGIN_S3_USE_AWS_MANAGED_IAM:-}
S3_ENDPOINT: ${PLUGIN_S3_ENDPOINT:-}
S3_USE_PATH_STYLE: ${PLUGIN_S3_USE_PATH_STYLE:-}
再重启 docker
docker compose down
docker compose up -d
docker ps 查看是否还有报错
docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
8a02ec3bcbb7 langgenius/dify-plugin-daemon:0.0.7-local "/bin/bash -c /app/e…" About an hour ago Up About an hour 0.0.0.0:5003->5003/tcp, :::5003->5003/tcp docker-plugin_daemon-1
终于正常了,也不会有报错了。
安装好了
前期准备
1. 本地安装 ollama 或者获取到第三方的 deepseek 的接口
本地安装 ollama 可以参考:https://mp.weixin.qq.com/s/kJ7JCgFUNKWtPtp8r5mR_A
2. 安装 Dify 可以参考:https://mp.weixin.qq.com/s/HYDBOXmkXGypGl3IpXqiCw
Dify 模型设置
1. 访问 Dify
浏览器输入 IP 或者 localhost,访问 Dify
输入账号密码登录成功。
2. 添加模型
点击 Dify 平台右上角头像
设置
以此点击:
设置
模型供应商
选择 Ollama,如果没有安装点击安装。
添加模型。
查看我的 ollama 的大模型有哪些
C:\Users\Administrator>ollama list
NAME ID SIZE MODIFIED
deepseek-v2:16b 7c8c332f2df7 8.9 GB 13 days ago
nomic-embed-text:latest 0a109f422b47 274 MB 4 weeks ago
qwq:32b-q4_K_M cc1091b0e276 19 GB 4 weeks ago
deepseek-r1:32b 38056bbcbb2d 19 GB 8 weeks ago
qwen2.5:14b 7cdf5a0187d5 9.0 GB 8 weeks ago
llama3-cn-8b:latest d710bb08d58c 6.6 GB 2 months ago
llama2-chinese:latest cee11d703eee 3.8 GB 2 months ago
deepseek-r1:14b ea35dfe18182 9.0 GB 2 months ago
qwen2.5:latest 845dbda0ea48 4.7 GB 2 months ago
deepseek-r1:7b 0a8c26691023 4.7 GB 2 months ago
llama3:latest 365c0bd3c000 4.7 GB 2 months ago
我这里选择 deepseek-r1:7b
模型名称填写:deepseek-r1:7b
基础 URL 填:http://192.168.1.18:11434(如果你的本机的 ollama 则可以填写:http://host.docker.internal:11434)
其他可保持默认,点击保存
3. 创建聊天应用
返回主页,进入“工作室 - 聊天助手”,创建空白应用。
选择聊天助手
填写应用名称、图标。
点击“创建”。
编排聊天助手
提示词,变量、知识库都可以按照实际需求填写
点击右侧发布。
点击运行可以看到实际效果
到这里,我们就完成了第一个应用:聊天助手 的搭建
结尾
Dify 与 DeepSeek 的深度集成,通过本文的介绍和案例分析,我们可以看到,普通人借助 Dify 和 DeepSeek,无需深厚的编程基础,就能轻松开发出功能强大的 AI 应用。
