在当今数字化的时代,信息和知识如同浩瀚的海洋,而我们每个人都要在其中寻找属于自己的宝藏。
想象一下,作为一名医生,你手中握有海量的科研资料,它们如同一座座知识的孤岛,等待着被探索和整合。如果能够拥有一位专属的“知识机器人”,它不仅能够学习并吸收你所有的资料,还能在你需要时,迅速为你提供精准的答案,这将是多么令人向往的事情啊!
你无需再耗费大量时间在繁琐的资料检索中,只需简单地向它提问,答案便如自来水般涌现。这,便是本地部署与知识库结合的神奇之处。它不仅仅是一个技术的应用,更是一种对个人智慧的赋能。
牛刀小试
首先,我们编写一个简单的 markdown 文件,内容如下:
三角形分类
- 黄金三角形就是三个角的大小比例为 1:2:3 的三角形。
- 白银三角形就是三个角的大小比例为 2:3:4 的三角形。
- 青铜三角形就是三个角的大小比例为 1:1:4 的三角形。
- 烂铁三角形就是三个角的大小的比例为 1:3:8 的三角形。
取个名字,比如 知识荒漠.md
,当然把它导出为 pdf 格式也是可以的。当然,一般来说你会有很多这类文件。然后,把它们导入到本地知识库,后面会讲具体如何操作。
这里提一下,黄金三角形和白银三角形本身是有这样的定义,但我们这里随便下点定义,为了看看 DeepSeek 作何反应。而后面两个是没有的,完全是我们杜撰的,可以理解为要喂给大模型的新知识。
好了,开始调戏本地的 DeepSeek。
比如问它:请解释下青铜三角形。

由于实际中并没有这个定义,所以它只能从我们本地知识库中获得这个知识,加上它自己的推理,构建了具体的概念并总结了一些性质,虽然它有些谨慎。
再问它:请解释下黄金三角形。
由于实际中有这个定义,但是它又看到了本地知识库中的这个概念,显然它们不一致,所以 DeepSeek 有些纠结,但会结合它自己的推理来决定最终怎么解释。
可见 DeepSeek 还是很聪慧的,不会轻易被外部知识误导。
另外,如果你嫌 AI 大模型翻译得不到位,是不是可以给它喂一些本地知识调教它呢!

大致原理
DeepSeek 读取本地知识库主要是通过检索增强生成(Retrieval-Augmented Generation,RAG
)技术实现的。以下是具体实现过程:
向量嵌入模型:需要一个嵌入模型(如
nomic-embed-text
或BAAI/bge-m3
)将本地知识库中的文本内容转换为向量形式。这些向量会被存储到向量数据库(如 LanceDB)中。知识库的创建与配置:在本地部署 DeepSeek 的基础上,通过相关工具(如
Cherry Studio
)配置嵌入模型和向量数据库。创建知识库时,选择已配置的嵌入模型,上传本地文件进行向量化处理。RAG 技术:当用户提问时,RAG 技术会利用向量数据库中的向量数据,通过检索找到与问题最相关的知识库内容。DeepSeek 会结合检索到的知识库内容生成回答。
模型与工具:DeepSeek R1 等模型通过 API 配置到各种工具中(如
Cherry Studio
),以实现对本地知识库的读取和处理。通过上述技术,DeepSeek 能够高效地读取和利用本地知识库,为用户提供精准的回答。
可能你会想这与直接以附件形式上传给大模型有什么区别?这个留给大家自己琢磨吧。好了,原理大致了解了,让我们动手吧。
本地部署
一、安装 Ollama
访问 Ollama 官网:前往 Ollama 官网,点击 Download 按钮。
下载安装包:根据你的操作系统选择对应的安装包。下载完成后,直接双击安装文件并按照提示完成安装。
验证安装:安装完成后,在终端输入以下命令,检查 Ollama 版本:
ollama --version
如果输出版本号(例如
ollama version is 0.2.8
),则说明安装成功。
二、下载并部署 DeepSeek 模型

选择模型版本:
入门级:1.5B 版本,适合初步测试。 中端:7B 或 8B 版本,适合大多数消费级 GPU。 高性能:14B、32B 或 70B 版本,适合高端 GPU。 下载模型:打开终端,输入以下命令下载并运行 DeepSeek 模型。例如,下载 8B 版本的命令为:
ollama run deepseek-r1:8b
如果需要下载其他版本,可以参考以下命令:
ollama run deepseek-r1:7b # 7B 版本
ollama run deepseek-r1:14b # 14B 版本
ollama run deepseek-r1:32b # 32B 版本启动 Ollama 服务:在终端运行以下命令启动 Ollama 服务:
ollama serve
服务启动后,可以通过访问
http://localhost:11434
来与模型进行交互。
三、安装并配置 Cherry Studio
下载 Cherry Studio:
配置模型服务:
打开 Cherry Studio,进入 “模型服务” 设置。 添加 Ollama 作为模型服务提供商,输入 Ollama 服务的地址(默认为 http://localhost:11434
)。添加 DeepSeek 模型:
本地知识库
一、搭建本地知识库
下载嵌入模型:我们下载 BGE-M3,它是由 BAAI(北京智源人工智能研究院)发布的多语言长文本向量检索模型。BGE-M3 支持超过 100 种语言,训练数据覆盖了 170 多种语言。
通过如下命令下载这个嵌入模型。
ollama pull bge-m3
添加嵌入模型:
点击 “管理” 按钮,选择 “嵌入”,添加嵌入模型(如 bge-m3
),用于文档拆分和理解。点击 “确认” 后,嵌入模型将被添加到系统中。 添加本地知识库:
点击左侧的 “知识库” 按钮,选择并添加本地文档。 填写知识库名称,选择嵌入模型。 上传本地文件(支持文件、目录、网址、笔记等),例如你要学习的一堆文献。
二、使用知识库
选择知识库: 聊天、提问: 在聊天区域输入问题, Cherry Studio
将调用 DeepSeek 模型,结合知识库内容生成回答。
Cherry Studio
的可视化界面进行交互。Cherry Studio
提供了丰富的功能,包括对话知识库、联网搜索、多模型接入等,非常适合新手快速上手。最后,如果还想要 DeepSeek 结合搜索的话,可以使用浏览器插件 Page Assist。
还没有评论,来说两句吧...