本文作者:zhujue

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪

zhujue 2025-02-14 11:32:41 149 抢沙发
【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪摘要: ...

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第1张

【知识科普】【纯本地化搭建】【不本地也行】DeepSeek + RAGFlow 构建个人知识库

没有什么资源给大家分享个ppt吧(心动)(叼玫瑰):https://pan.quark.cn/s/851214dbec60  

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第2张DeepSeek_RAGFlow.pptx

部分小伙伴软件下载不下来,帮大家下了一下: RAGFlow源代码:https://pan.quark.cn/s/3beb27b5224f

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第3张ragflow-main-f7fff22d64d5.zip

ollama安装包(win版):https://pan.quark.cn/s/d5dec665e03d

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第3张OllamaSetup.zip

docker桌面版安装包(win版):https://pan.quark.cn/s/15e4a6bcaf95

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第3张Docker Desktop Installer.zip


终于把ollama死活不跑在gpu上的问题解决了!可以跑32b了!太痛了,经验总结如下: 1.cuda toolkit一定要装对版本; 2.装完cuda toolkit后需要重装ollama,因为它是在安装期间识别你的显卡驱动的。。。。重启重下模型改配置什么都不管用,必须重装


测试完了给大家同步一下硬件信息: 3080 10G最多跑14B模型,思考2-4秒,这个模型顶多用来处理问答检索,而且是大白话的问答,不要让他过多思考。 4090 24G,最多跑32B,思考2-4秒,回答速度非常快,推理能力也很强,可以给模糊规则或问答,基本能回答正确。 总结:上传平台规则类的,然后询问自己产品是否达标这种需求。至少需要24G显存,32B的大模型。 后续我会测双显卡、70B的效果、横向对比通义千问的同体量模型效果、API的收费等,到时候评论区里更新。 最后说一句,RAGFlow天下第一!我测过非常多的工具,比如openwebUI, page assist, AnythingLLM等等,对数据库的匹配只有page assist比较好,但是他不能多人公用数据库。其次是对于数据的处理,其他很多工具不支持表格啊,无法联想问答的因果关系等,只有RAGFlow可以全部解决这些一堆问题,所以大家别折腾其他工具了,我帮你们踩过坑了。

DeepSeek 本地部署(RAGflow)

DeepSeek 本地部署(RAGflow)

部署学习参考原作者视频链接:

【知识科普】【纯本地化搭建】【不本地也行】DeepSeek + RAGFlow 构建个人知识库_哔哩哔哩_bilibili

1、下载完ollama后配置环境变量,让虚拟机能够访问ollama的ip,设置-系统-系统信息-高级系统设置-高级-环境变量,添加以下两个环境变量

名称:OLLAMA_HOST   值:0.0.0.0:11434

名称:OLLAMA_MODELS   值:D:\OllamaModels

添加完毕保存后立即重启电脑

2、添加完毕后打开ollama官网,找到相应模型,然后win+ r 打开cmd后直接输入下载地址回车

【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第6张

3、下载好后显示以上页面其实DeepSeek已经可以开始用了。接下来下载RAGflow,打开对应github网页后直接下载解压

4、然后教程中是先下载dcker,安装docker还需要安装WSL,这需要一点时间,根据弹窗按任意键安装即可,WSL默认安装在C盘,安装后打开docker注册,调用cmd输入docker看是否正常

如果安装完wsl仍然报错,看一下报错内容有没有说确认开启虚拟机,那样的话参考下方资料

  1. 启用“虚拟机平台”

    • **打开“启用或关闭 Windows 功能”**中勾选“虚拟机平台”和“Windows 虚拟机监控程序平台”(如适用)。

    • 点击“确定”,系统将安装所需组件。

  2. 重启电脑

    • 安装完成后,按提示重启。

2. 在 BIOS 中启用虚拟化

  1. 进入 BIOS/UEFI

    • 重启电脑,在启动时按 F2F10Del 或 Esc(具体键因电脑而异)。

  2. 找到虚拟化设置

    • 在 BIOS 中,找到类似“Intel VT-x”、“Intel Virtualization Technology”、“AMD-V”或“SVM Mode”的选项。

  3. 启用虚拟化

    • 将虚拟化选项设为“Enabled”。

  4. 保存并退出

    • 按 F10 保存并退出,电脑将重启。

5、回到ragflow解压的文件夹,找到docker文件夹中.env文件,用记事本打开,

注释掉:RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0-slim

取消注释:RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0

6、在项目所在文件夹目录下输入cmd后回车,输入RAGflow中github的运行代码 docker compose -f docker/docker-compose.yml up -d

提示:上一步操作会占用30G空间,且可能会出现很多问题,解决方法如下:

1、关于出现类似警告:

time="2025-02-11T14:41:50+08:00" level=warning msg="The \"HF_ENDPOINT\" variable is not set. Defaulting to a blank string." time="2025-02-11T14:41:50+08:00" level=warning msg="The \"MACOS\" variable is not set. Defaulting to a blank string."

原因是国内访问不到,需要使用镜像,此时需要回到ragflow解压的文件夹,找到docker文件夹中.env文件,用记事本打开,在最后部分回车空一行后复制粘贴以下内容(mac电脑false改成true)

HF_ENDPOINT=https://hf-mirror.com MACOS=false

2、关于出现类似下列错误:

D:\DeepSeek&RAGflow\ragflow-main>curl -I https://registry-1.docker.io/v2/curl: (28) Failed to connect to registry-1.docker.io port 443 after 21080 ms: Could not connect to server

原因还是网络镜像问题,解决方法:

打开docker,右键选择go to the dashboard,如果打不开可能是因为你打开了登陆页面,关掉登陆页面就好了;然后点击设置图标,选择Docker Engine,复制下方代码后保存并重启。如果下方代码也失效,搜索最新能用的镜像链接替换掉

{
  "builder": {
    "gc": {
      "defaultKeepStorage": "20GB",
      "enabled": true
    }
  },
  "experimental": false,
  "registry-mirrors": [
    "<https://docker.1ms.run>"
  ]
}

3、其他可能设置的点:

打开docker,右键选择go to the dashboard,点击设置图标,点击resources,将地址改为ragflow_main文件夹下docker文件夹,保存重启,弹窗需要时间直接点击yes,move;如果失败退出docker再来一次;

7、成功运行docker compose -f docker/docker-compose.yml up -d后打开浏览器,输入地址

localhost:80 回车后进入交互页面,注册并登陆账户

8、加载模型:登陆后点击头像,选择模型供应商,在待添加模型中找到ollama并添加模型

模型类型:chat;模型名称:完整的复制下载的模型,可以通过在cmd中输入ollama list查看

基础url:http://本地ipv4地址:11434(可cmd输入ipconfig帮助查找,建议选择名字包含以太网适配器 vEthernet (WSL (Hyper-V firewall)):)

http://host.docker.internal:11434(实在不行使用这个,指向宿主机的IP地址)

其他按需配置

9、系统模型设置:加载ollama后点击docker右上角的系统模型设置,在聊天模型中选择ollama对应的deepseek模型,嵌入模型因为下载的是完整的RAGflow,选项较多,选择BAAI/bge-large-zh-v1.5后,其他暂不用管,点击确定。接下来就可以正常使用了。

10、使用方法:知识库构建通过点击知识库新建知识库,进行相应的配置即可,知识库建好后上传的资料需要经过解析才能被使用,在聊天页面中新建助理时候添加对应的知识库,就可以让ai结合知识库进行回答




【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第7张


【精】DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪 DeepSeek 第8张


文章投稿或转载声明

来源:DeepSeek + RAGFlow 构建个人知识库【知识科普】【纯本地化搭建】【不本地也行】-堂吉诃德拉曼查的英豪版权归原作者所有,转载请保留出处。本站文章发布于 2025-02-14 11:32:41
温馨提示:文章内容系作者个人观点,不代表天云博客对其观点赞同或支持。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,149人围观)参与讨论

还没有评论,来说两句吧...