对于本地部署的DeepSeek,如何在你自己电脑上安装和使用DeepSeek R1 大模型?DeepSeek R1本地部署指南
怎样让它的答案更高效?此时就要用到知识库。本文使用的方案是Ollama+Docker+Dify。
注意:首先请确保你已经安装了Git和Python,并保持“网络畅通”。
一、安装Ollama和Docker,并下载大模型。
方法参考下列文章的第一、第二部分:DeepSeek-R1本地部署
二、安装Dify(以Windows为例)
安装之前请确认Ollama和Docker都已经运行,也就是在任务栏可以看到图标:
打开你想安装Dify的硬盘目录,点击鼠标右键,选择“在终端打开”:
然后依次执行下列指令:
git clone https://github.com/langgenius/dify.git --branch 0.15.3
cd dify/docker
cp .env.example .env
docker compose up -d
完成后,会看到类似这样的提示,等待完成即可。
可运行下面的指令,看看容器是否正常运行:
docker compose ps
输出结果中,最左边一列应该可以看到如下服务:api、db、nginx、redis、sandbox、ssrf_proxy、weaviate、web、worker
你也可以打开Docker的容器栏,点击红框标示部位:
同样可以看到上述的服务:
接下来设置设置管理员账户,打开网址:http://localhost/install,输入你的邮箱、用户名、密码,确认后登录:
至此,安装成功!今后你只需直接访问:http://localhost 即可打开Dify主页面:
如果你无法通过上述网址打开页面(或打开后跳转到微软网页),可能是默认的80端口被占用,此时需要修改端口:
用文本编辑工具打开 \dify\docker 文件夹下的.env 这个文件:
找到下面这两行:
EXPOSE_NGINX_PORT=80
EXPOSE_NGINX_SSL_PORT=443
修改为:
EXPOSE_NGINX_PORT=8080
EXPOSE_NGINX_SSL_PORT=8443
保存文件,在命令行模式下运行下面两行指令,重启服务:
docker compose down
docker compose up -d
此时默认端口已经改成8080,你可以通过下面的网址使用Dify:
Dify设置页面:http://localhost:8080/install
Dify主页面:http://localhost:8080
三、设置模型
Dify可以管理各种模型,点击右上角你的用户名,在下拉菜单中选择“设置”:
选择“模型供应商”,找到Ollama,点击“添加模型”:
模型类型选:LLM
模型名称填已经下载在本地的,如:deepseek-r1:14b
基础URL填:http://host.docker.internal:11434
然后点击“保存”,没有错误提示即可。
回到Dify主页面,点击“创建空白应用”:
选择“聊天助手”,随便取个名字,点击“创建”:
在聊天助手窗口,右上角是你已经安装的模型(如果看不到,请刷新一下页面),右下方是聊天框,可以测试一下:
四、创建知识库
在Dify主页面点击上方“知识库”,此时可选“创建知识库”或“连接外部知识库”:
在“创建知识库”当中,可以创建空知识库,或选择数据源:
如果是空知识库,取个名字后确定即可。
如果导入数据源,则有多种方式,以“导入已有文本”为例,选择文本文件后(单个文件不大于15MB),点击下一步:
根据你的需求进行设定,最后点击“保存并处理”:
然后这个文本就加入了知识库:
在聊天助手窗口下方的“上下文”栏选择“添加”,就可以调用知识库。此时如果问到知识库里的内容,AI就会给出相应回答:
至此,一个简单的大模型知识库就已经搭建好了。
Dify的知识库功能十分丰富,更多使用方法请参考推文底部的官方文档。
文章涉及的网址:
Dify的Github代码页
https://github.com/langgenius/dify
Dify知识库搭建官方文档:
https://docs.dify.ai/zh-hans/guides/knowledge-base/create-knowledge-and-upload-documents