ollama + deepseek + open-webui 并使用博查联网搜索能力

打印 上一主题 下一主题

主题 1857|帖子 1857|积分 5575

媒介
上一篇文章讲解了当地部署ollama + deepseek + open-webui并开启cuda、cudnn加快,现在讲解下open-webui实现网络搜索。
传送门:保姆级教程 当地部署 deepseek + ollama + open-webui + cuda + cudnn
一、博查简介

市面上有很多web search api厂商,比如brave、exa、bing等,但是根本是国外的,访问慢有些还需要魔法,微软的bing价格贵且订阅需要绑定国际信用卡,所以这里推荐国内的博查。
简介:持自然语言搜索的 Web Search API,从近百亿网页和生态内容源中搜索高质量世界知识,包括消息、图片、视频、百科、机酒、学术等。
官网:https://bochaai.com/
开放平台:https://open.bochaai.com/

二、安装博查版open-webui

由于open-webui官方还没集成博查,据说已提交审核,应该快了,集成之后直接用open-webui配置即可。


  • 博查提供的安装文档:Deepseek满血+联网当地部署教程:在 Ollama + OpenWebUI 中使用博查联网搜索能力
  • 博查open-webui源码地点:https://github.com/BochaAI/open-webui-Bocha
将源码下载到当地,上一篇已经讲述了如何安装Anaconda,现在一样创建一个 open-webui-bocha 的假造环境:
  1. conda create -n open-webui-bocha python=3.11
复制代码
切换到 open-webui-bocha 环境
  1. activate open-webui-bocha
复制代码
切换pip镜像源
  1. pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
复制代码
进入 open-webui-Bocha/backend 目录,安装依靠
  1. pip install -r requirements.txt -U
复制代码
在 backend 目录新建data文件夹存放数据库

三、安装nvm并构建前端

因为需要打包前端,所以推荐使用nvm来管理node版本,方便切换使用。


  • nvm下载地点:https://github.com/coreybutler/nvm-windows/releases
下载完直接安装即可,然后安装node V20.3.0
  1. nvm install 20.3.0
复制代码
切换到node 20.3.0
  1. nvm use 20.3.0
复制代码
设置npm镜像源
  1. npm config set registry=https://registry.npmmirror.com
复制代码
进入 open-webui-Bocha 根目录,安装前端所需的相应依靠和模块
  1. npm install
复制代码
构建前端环境
  1. npm run build
复制代码
四、启动open-webui-bocha

进入 open-webui-Bocha/backend 文件夹下执行 start_windows.bat,出现以下内容说明启动成功:

如出现包含 huggingface 的报错,是由于本机因无法访问huggingface网站而导致无法下载对应的语义向量模子,本身加点魔法~
五、配置博查联网搜索

进入博查开放平台(https://open.bochaai.com/),登录之后获取本身的API key 信息(需要充个10块,没免费额度~)

设置联网搜索:管理员面板->设置->联网搜索->点开启用联网搜索->选择bocha->输入bochaAPI->生存






免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

东湖之滨

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表