摆设本地所有开源大模型 ,同款ChatGPT操作页面,支持多种交互方式,包括语 ...

打印 上一主题 下一主题

主题 885|帖子 885|积分 2655

留意:: 先安装python 和 pip 。。。安装open-webui 时先检查python版本 ,它不兼容3.11及其以上版本。(下面部分下载需要邪术)
检查pip是否安装成功  下令:
  1. pip --version
复制代码

检查python安装成功和版本  下令:
  1. python
复制代码

路径问题,小白建议按照默认路径。
1. 安装 ollama
官方链接: https://ollama.com/
判断ollama安装成功 win + R 输入 ollama
error:设置情况变量:如果遇到ollama下令无法使用的问题,需要设置情况变量。操作如下:
控制面板 → 体系 → 高级体系设置 → 情况变量 → 在体系变量中找到Path → 编辑 → 新建,添加Ollama的安装路径。
开始选择模型
点击 models ,选择自己的模型,我选择的是qwen 和 llama。
尽量选择自己电脑能跑的大模型,一般7B即可。
下载
或者win + R
下令:

拉取模型:ollama pull 模型名字 

运行模型:ollama run qwen2.5-coder。


上图表现run 成功
可以直接在cmd上和它对话。。此时已经本地摆设好大模型。
也可以
  1. ollama run 模型名字
复制代码
它会自动拉取下载。
2.安装docker 
官方链接:https://www.docker.com/
点击download 直接下载 ,下载成功后。
按win + R ,cmd  后,输入下令:
  1. docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
复制代码

error:大概出现权限不够 ,那么输入下令:
  1. sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
复制代码

等待下载安装
安装成功后,打开docker 点击containers。成功页面如下

上图action下有个三角按钮:此时状态是关闭状态。点击按钮可以打开。

鼠标点击3000:8080后符号跳转网页此时支持文字对话聊天交互,大概此时不支持直接语音交互等交互方式,继续后续步调。
说明:根据电脑不同,有些电脑 执行 上面1,2两个步调即可成功运行,但是不可cmd终端打开。需要继续下面的步调
3.open webui
进入github搜索有教程
或者
打开win+R,cmd
输入下令:
  1. pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
复制代码

再输入下令:
  1. pip install open-webui
复制代码
 开始下载等待即可
成功后这时间会显示有最新版本需要更新
输入下令:
  1. pip install open-webui --upgrade
复制代码

不成功按照上面显示的更新代码复制运行即可。
成功后,输入下令:open-webui serve,下面是成功页面

4.另外再打开win + R  。输入ollama serve
输入ollama serve失败。

不成功后输入ollama进入ollama最初页面输入 start ollama。不报错则表现成功


5.末了进入网页
打开前检查羊驼和鲸鱼图标,安装成功

打开网页:http://127.0.0.1:8080(要包管ollama 和 open wehui 是打开状态,千万不能关闭刚刚的两个cmd)

成功!!!!!

 

 
可以望见右下角我是没有网络的,点击

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

玛卡巴卡的卡巴卡玛

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表