【知识科普】【纯本地化搭建】【不本地也行】DeepSeek + RAGFlow 构建个人知识库
没有什么资源给大家分享个ppt吧(心动)(叼玫瑰):https://pan.quark.cn/s/851214dbec60
部分小伙伴软件下载不下来,帮大家下了一下: RAGFlow源代码:https://pan.quark.cn/s/3beb27b5224f
ollama安装包(win版):https://pan.quark.cn/s/d5dec665e03d
docker桌面版安装包(win版):https://pan.quark.cn/s/15e4a6bcaf95
终于把ollama死活不跑在gpu上的问题解决了!可以跑32b了!太痛了,经验总结如下: 1.cuda toolkit一定要装对版本; 2.装完cuda toolkit后需要重装ollama,因为它是在安装期间识别你的显卡驱动的。。。。重启重下模型改配置什么都不管用,必须重装
测试完了给大家同步一下硬件信息: 3080 10G最多跑14B模型,思考2-4秒,这个模型顶多用来处理问答检索,而且是大白话的问答,不要让他过多思考。 4090 24G,最多跑32B,思考2-4秒,回答速度非常快,推理能力也很强,可以给模糊规则或问答,基本能回答正确。 总结:上传平台规则类的,然后询问自己产品是否达标这种需求。至少需要24G显存,32B的大模型。 后续我会测双显卡、70B的效果、横向对比通义千问的同体量模型效果、API的收费等,到时候评论区里更新。 最后说一句,RAGFlow天下第一!我测过非常多的工具,比如openwebUI, page assist, AnythingLLM等等,对数据库的匹配只有page assist比较好,但是他不能多人公用数据库。其次是对于数据的处理,其他很多工具不支持表格啊,无法联想问答的因果关系等,只有RAGFlow可以全部解决这些一堆问题,所以大家别折腾其他工具了,我帮你们踩过坑了。
DeepSeek 本地部署(RAGflow)
部署学习参考原作者视频链接:
【知识科普】【纯本地化搭建】【不本地也行】DeepSeek + RAGFlow 构建个人知识库_哔哩哔哩_bilibili
1、下载完ollama后配置环境变量,让虚拟机能够访问ollama的ip,设置-系统-系统信息-高级系统设置-高级-环境变量,添加以下两个环境变量
名称:OLLAMA_HOST 值:0.0.0.0:11434
名称:OLLAMA_MODELS 值:D:\OllamaModels
添加完毕保存后立即重启电脑
2、添加完毕后打开ollama官网,找到相应模型,然后win+ r 打开cmd后直接输入下载地址回车
3、下载好后显示以上页面其实DeepSeek已经可以开始用了。接下来下载RAGflow,打开对应github网页后直接下载解压
4、然后教程中是先下载dcker,安装docker还需要安装WSL,这需要一点时间,根据弹窗按任意键安装即可,WSL默认安装在C盘,安装后打开docker注册,调用cmd输入docker看是否正常
如果安装完wsl仍然报错,看一下报错内容有没有说确认开启虚拟机,那样的话参考下方资料
启用“虚拟机平台”:
**打开“启用或关闭 Windows 功能”**中勾选“虚拟机平台”和“Windows 虚拟机监控程序平台”(如适用)。
点击“确定”,系统将安装所需组件。
重启电脑:
安装完成后,按提示重启。
2. 在 BIOS 中启用虚拟化
进入 BIOS/UEFI:
重启电脑,在启动时按
F2
、F10
、Del
或Esc
(具体键因电脑而异)。找到虚拟化设置:
在 BIOS 中,找到类似“Intel VT-x”、“Intel Virtualization Technology”、“AMD-V”或“SVM Mode”的选项。
启用虚拟化:
将虚拟化选项设为“Enabled”。
保存并退出:
按
F10
保存并退出,电脑将重启。
5、回到ragflow解压的文件夹,找到docker文件夹中.env文件,用记事本打开,
注释掉:RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0-slim
取消注释:RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
6、在项目所在文件夹目录下输入cmd后回车,输入RAGflow中github的运行代码 docker compose -f docker/docker-compose.yml up -d
提示:上一步操作会占用30G空间,且可能会出现很多问题,解决方法如下:
1、关于出现类似警告:
time="2025-02-11T14:41:50+08:00" level=warning msg="The \"HF_ENDPOINT\" variable is not set. Defaulting to a blank string." time="2025-02-11T14:41:50+08:00" level=warning msg="The \"MACOS\" variable is not set. Defaulting to a blank string."
原因是国内访问不到,需要使用镜像,此时需要回到ragflow解压的文件夹,找到docker文件夹中.env文件,用记事本打开,在最后部分回车空一行后复制粘贴以下内容(mac电脑false改成true)
HF_ENDPOINT=https://hf-mirror.com MACOS=false
2、关于出现类似下列错误:
D:\DeepSeek&RAGflow\ragflow-main>curl -I https://registry-1.docker.io/v2/curl: (28) Failed to connect to registry-1.docker.io port 443 after 21080 ms: Could not connect to server
原因还是网络镜像问题,解决方法:
打开docker,右键选择go to the dashboard,如果打不开可能是因为你打开了登陆页面,关掉登陆页面就好了;然后点击设置图标,选择Docker Engine,复制下方代码后保存并重启。如果下方代码也失效,搜索最新能用的镜像链接替换掉
{ "builder": { "gc": { "defaultKeepStorage": "20GB", "enabled": true } }, "experimental": false, "registry-mirrors": [ "<https://docker.1ms.run>" ] }
3、其他可能设置的点:
打开docker,右键选择go to the dashboard,点击设置图标,点击resources,将地址改为ragflow_main文件夹下docker文件夹,保存重启,弹窗需要时间直接点击yes,move;如果失败退出docker再来一次;
7、成功运行docker compose -f docker/docker-compose.yml up -d后打开浏览器,输入地址
localhost:80 回车后进入交互页面,注册并登陆账户
8、加载模型:登陆后点击头像,选择模型供应商,在待添加模型中找到ollama并添加模型
模型类型:chat;模型名称:完整的复制下载的模型,可以通过在cmd中输入ollama list查看
基础url:http://本地ipv4地址:11434(可cmd输入ipconfig帮助查找,建议选择名字包含以太网适配器 vEthernet (WSL (Hyper-V firewall)):)
http://host.docker.internal:11434(实在不行使用这个,指向宿主机的IP地址)
其他按需配置
9、系统模型设置:加载ollama后点击docker右上角的系统模型设置,在聊天模型中选择ollama对应的deepseek模型,嵌入模型因为下载的是完整的RAGflow,选项较多,选择BAAI/bge-large-zh-v1.5后,其他暂不用管,点击确定。接下来就可以正常使用了。
10、使用方法:知识库构建通过点击知识库新建知识库,进行相应的配置即可,知识库建好后上传的资料需要经过解析才能被使用,在聊天页面中新建助理时候添加对应的知识库,就可以让ai结合知识库进行回答
还没有评论,来说两句吧...