卖不甜枣 发表于 2024-6-18 18:01:46

openWebUI+ollama&windows+不用docker+webLite当地安装

openWebUI & ollama & windows & 不用docker & webLite 当地安装

总结一下安装教程



[*]10核CPU
[*]16G内存
两个web框架都可以,先说简单的 ollama-webui-lite(https://github.com/ollama-webui/ollama-webui-lite) 轻量级,只利用nodejs
先装 https://ollama.com/download
新建文件夹 E:\Proj\olloamaModsSav ,cmd进入该目录 ollama run llama3,那么就会直接下载该模子到该目录下,在blobs目录内里会出现这种文件
https://img-blog.csdnimg.cn/direct/64c93d1ae98a4c7eb2a3e51605988b9f.png
完了之后就会在cmd里可以进行问答,利用
摆设这个webui 必要nodejs安装,(有个坑,c盘根目录必要一个package.json,可以通过命令初始化,如下)装完之后
{
"name": "system32",
"version": "1.0.0",
"description": "",
"main": "index.js",
"scripts": {
    "test": "echo \"Error: no test specified\" && exit 1"
},
"keywords": [],
"author": "",
"license": "ISC"
}
1. 摆设WebUI(web-lite)(复制于 逾越GPT-3.5!Llama3个人电脑当地摆设教程 (ddhigh.com) )

打开终端,实行以下命令摆设WebUI:
git clone https://github.com/ollama-webui/ollama-webui-lite.git cd ollama-webui-lite npm install npm run dev
提示如下,WebUI已经在当地3000端口进行监听:
> ollama-webui-lite@0.0.1 dev
> vite dev --host --port 3000

VITE v4.5.2ready in 765 ms

➜Local:   http://localhost:3000/

打开欣赏器访问http://localhost:3000,可以看到如下图所示界面。默认环境下是没有选择模子的,必要点击截图所示箭头处选择模子。
上面就是摆设完了,就能直接用了,ollama想下其他模子就在你刚才建的目录下,打开cmd,再进行ollama -h 检察所有命令,ollama run xxx 就是直接下这模子跑起来,重点是你不在这个目录下实行,那就把模子给下到c盘 ./ollama/models里去了
2. openwebUI 摆设

参考 llama3当地环境配置(Ollama+open-webui) - 知乎 (zhihu.com) Open-WebUI(原Ollama_WebUI)Windows上源码安装配置记录 - 知乎 (zhihu.com)等
不利用docker,因为我win体系怎么用docker( 麻 ) ( 贫苦 ) ( 就是不想用 )
对照这两个教程,我是想用conda安,而不是直接用pyhton,我也不想把python放到环境变量里,于是就遇到许多坑…
当你做到这一步:
保举的利用Docker,可是以我的经验,这种docker通常都非常的大。所以我预备用源码安装。
文档地址:https://docs.openwebui.com/getting-started/
我的具体步骤,大部分按文档操作,在pip的时间增加了国内源,
`git clone https://github.com/open-webui/open-webui.git
cd open-webui/
Copying required .env file

cp -RPp .env.example .env
Building Frontend Using Node

npm i
npm run build
Serving Frontend with the Backend

cd ./backend
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U`
这个pip安装,我是想用conda ,于是你要如许操作

[*]打开anaconda prompt ,
[*]创建一个环境 python=3.11
[*]进入你存放这个webui的目录的./backend 下面
[*]试一试你用 是哪一个pip , 利用 where pip
[*]如果发现不是你conda这个假造环境下的pip ,例如是c盘里某python下的pip,而你的conda假造环境在E盘莫env下面,请 conda install pip (conda安装不上的,报网络错误的,试试镜像源,)
[*]然后继承看看 where pip
[*]发现确实是你conda这个假造环境下的pip ,然后 别急,这是实行 pip install 会给c盘拉屎
[*]去修改pip缓存位置,自己在其他盘建个空文件夹 Python漫笔:改变Windows中 pip 的缓存位置与删除 pip 缓存_c盘的pip文件夹可以删除吗-CSDN博客 pip config set global.cache-dir "D:\Programs\Python\Python36\pipcache"
[*]实行 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
[*]注意实行这一步的时间就等完了,一直等到命令行弹出目录来,别ctrl+c 人工结束了,等就完事 了
然后到场上面的教程的步骤,第二步不用动,第一步,这个地址是ollama的地址,端口要对上,否则openwebUI找不到
https://img-blog.csdnimg.cn/direct/a343c01ceda74572b06fccf6000dfd48.png
然后就启动 ,还是那个目录
start_windows.bat (注意这里进去的时间在conda里,这个之前创的假造环境,这个目录下进入,否则找不到包,因为你cmd默认用的是环境变量里那个python,大概就没有Pyhton,例如:
**(py311olm) E:\Proj\web\ollama-openui\open-webui\backend>start_windows.bat )**
如果出现缺包的,就是你过早的 ctrl+c 了,不行就删了conda这个环境重来,比较省事 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt -U
这两个都能利用,就是不知道为什么 openwebUI 比 weblite 这个慢的多,来个懂的说说
页: [1]
查看完整版本: openWebUI+ollama&windows+不用docker+webLite当地安装