本地搭建私有知识问答库实践指南:Ollama+DeepSeek+Docker+RAGFlow ...

打印 上一主题 下一主题

主题 1871|帖子 1871|积分 5617

一、概要

本实践指南旨在使用Ollama、DeepSeek、Docker 和 RAGFlow 在本地搭建一个私有知识问答库,通过结合强盛的语言模型、高效的语义明确和灵活的检索增强天生技能,实现安全、可靠的知识管理和问答服务。
二、核心工具:



  • Ollama:用于本地部署和管理大型语言模型(LLM),提供高效的模型推理能力。
  • DeepSeek:专注于中文的语义明确和问答系统,提供精准的答案天生。
  • Docker:用于容器化部署,简化环境设置和依赖管理。
  • RAGFlow:基于检索增强天生(RAG)的框架,结合信息检索和文本天生技能,提拔问答质量。
    本文使用到的 Ollama+Docker+RAGFlow云盘下载
三、上风:



  • 本地化部署:数据存储在本地,保障数据安全和隐私。
  • 高效问答:结合RAG和LLM技能,提供快速、准确的问答服务。
  • 灵活定制:可根据需求定制知识库和问答流程,满足个性化需求。
  • 易于维护:使用 Docker 容器化部署,简化环境设置和依赖管理。
四、适用场景:



  • 企业内部知识管理
  • 个人知识库搭建
  • 特定领域问答系统
五、团体架构流程

(一)安装Ollama


1、下载软件

打开Ollama官网根据电脑系统下载对应版本。

2、修改安装路径

手动创建Ollama安装目录。Ollama默认安装位置是在C盘,可以自界说安装路径。在想安装的路径下创建一个新文件夹,并把Ollama的安装包放在内里。比如我的是:D:\AISoftware\Ollama。

在文件路径上输入CMD回车后会自动打开命令窗口

在CMD窗口输入:
  1. OllamaSetup.exe /DIR=D:\AISoftware\Ollama
复制代码
语法:软件名称 /DIR=这里放你上面创建好的Ollama指定目录

然后Ollama就会进入安装,点击Install后,可以看到Ollama的安装路径就酿成了我们指定的目录了,如许大模型数据包也会默认下载在指定目录中。
3、设置环境变量

打开电脑设置-系统-关于,点击【高级系统设置】。


在环境变量中新建变量
#穿透
  【OLLAMA_HOST】 0.0.0.0:11434
#默认模型下载地点,根据ollama现实安装位置进行调解
【OLLAMA_MODELS】 D:\AISoftware\Ollama\models
完成之后点击【确认】按钮。

4、安装大模型并运行

在Ollama官网点击Models。




快捷键:win+r,输入:cmd,打开命令窗口,安装deepseek-r1:1.5b模型,输入命令:
  1. ollama run deepseek-r1:1.5b
复制代码
需要下载好久,耐心等候即可。
安装完成之后,要检察是否安装乐成,执行命令:
  1. ollama list
复制代码
运行deepseek-r1:1.5b模型,输入你想问的东西
  1. ollama run deepseek-r1:1.5b
复制代码

(二)安装Docker

在Docker官网下载软件

或者在github下载软件

启用或关闭Windows功能

Docker下载完成之后,可以win+r,输入:cmd,打开命令窗口,输入命令:
  1. docker --version
复制代码
确认安装乐成。

假如需要Docker汉化,可以参考https://github.com/asxez/DockerDesktop-CN。

(三)下载RAGFlow

1、下载

在RAGFlow下载地点下载即可。留意:ragflow下载的文件防止位置最少存储空间应该在20G以上,只管制止放在C盘下。


打开【ragflow-main】文件夹下的【docker】文件夹中的【.env】文件。

按下图修改【.env】文件第84和87行代码。

2、修改Docker设置

修改Docker软件右上角设置中的资源项,将磁盘镜像位置调解至ragflow-main文件夹下的docker文件夹内。

修改docker软件右上角设置中的Docker引擎项,可以新增加代码:
  1. "registry-mirrors":[
  2.     "https://docker.1ms.run"
  3.   ]
复制代码

在【ragflow-main】文件对应地点栏输入cmd,输入命令下载等候镜像包,下载持续时间较长,需要耐心等候。
  1. docker compose -f docker/docker-compose.yml up -d
复制代码

(四)使用RAGFlow创建知识库

1、注册登录

在电脑浏览器地点栏中输入:http://localhost:80/,进行账号注册,完成之后登录进入首页,右上角可以设置语言为简体中文。


2、添加模型

点击右上角头像,选择模型提供商,在Ollama下选择添加模型。
模型类型选择chat,win+r,输入cmd,输入命令
  1. ollama list
复制代码
检察自己安装模型名称,复制然后输入到模型名称,基础url,输入http://自己的ip地点:11434。末了点击【确定】按钮。


假如此时添加基础Url报错,可在基础Url出填写地点为http://host.docker.internal:11434
检察自己安装模型名称

检察自己的ip地点?win+r,输入cmd,输入命令:
  1. ipconfig
复制代码
根据下图标红的进行检察

下图即为添加乐成

3、添加知识库

回到首页,点击右上角,创建知识库。

设置知识库,修改语言为中文,选择好相应的嵌入模型息争析方法。


点击【数据集】,再点击【新增文件】,上传文件。


添加乐成之后,一定要点击分析按钮,分析乐成。


4、添加助理

选择【谈天】下的【新建助理】,填入相关信息、知识库中选择刚刚上传的数据集,点击确定。


输入你想问的题目,如许一个本地搭建的私有知识库就完成了。

六、小结

本指南提供了一种使用 Ollama、DeepSeek、Docker 和 RAGFlow 搭建本地私有知识问答库的实践方案。该方案结合了先辈的天然语言处置惩罚技能和灵活的容器化部署方式,为您提供高效、安全、可靠的知识管理和问答服务。
附 可能遇到的题目

题目一:RAGFlow下载过程中遇到的题目


【办理思绪】
1、修改docker软件右上角设置中的资源项,将磁盘镜像位置调解至ragflow-main文件夹下的docker文件夹内

2、修改docker软件右上角设置中的Docker引擎项,可以新增加代码
“registry-mirrors”: [
“https://docker.1ms.run”
]

3、下载完成之后ragflow-main文件夹差不多有三十个G,因此要提前留好空间,下载可能持续几十个小时,假如中间下载停止,可以再次输入指令运行,即可再次下载。


题目二:创建谈天时遇到的题目



【办理思绪】
1、修改docker容器使用内存巨细:
https://blog.csdn.net/m0_51699558/article/details/145639588?sharetype=blogdetail&sharerId=145639588&sharerefer=PC&sharesource=m0_51699558&spm=1011.2480.3001.8118
2、在【知识库】下【数据集】中重新上传文件并进行分析
3、假如没有生效可以重启电脑一次



免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

王國慶

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表