论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
运维.售后
›
运维.售后
›
在linux上摆设ollama+open-webu,且局域网访问教程 ...
在linux上摆设ollama+open-webu,且局域网访问教程
南七星之家
金牌会员
|
2025-2-15 16:41:39
|
显示全部楼层
|
阅读模式
楼主
主题
880
|
帖子
880
|
积分
2642
本文重要先容如何在Windows系统快速摆设Ollama开源大语言模型运行工具,并使用Open WebUI
经使用,qwen2.5:32b模型效果很好,在24gb模型上速度很快
目录
Ollama支持当前重要的开源大模型, 比如llama2、千文qwen、mistral等,可以在Windows、Linux、MacOS系统上进行摆设。稳定性和便利性都非常不错,下面就来分享一下它在Linux系统上的安装与应用。
运行ollama
运行后直接自动安装
curl -fsSL https://ollama.com/install.sh | sh
复制代码
ollama运行
如今Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,各人也可以使用其他的模型。
ollama serve
复制代码
在另一个终端中,验证 Ollama 是否正在运行:
ollama -v
复制代码
设置ollama的参数设置,/etc/systemd/system/ollama.service
sudo vim /etc/systemd/system/ollama.service
复制代码
输入以下的参数:
[Unit]Description=Ollama ServiceAfter=network-online.target[Service]ExecStart=/usr/local/bin/ollama serve
User=ollamaGroup=ollamaRestart=alwaysRestartSec=3Environment="PATH=/home/lvting/anaconda3/bin:/home/lvting/anaconda3/bin:/home/lvting/anaconda3/condabin:/home/lvting/.vscode-server/cli/servers/Stable-384ff7382de624fb94dbaf6da11977bba1ecd427/server/bin/remote-cli:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"Environment="OLLAMA_MODELS=/data/lt/1/.ollama/" # 设置模型下载的路径Environment="OLLAMA_HOST=0.0.0.0" #可访问Environment="OLLAMA_ORIGINS=*" [Install]WantedBy=default.target
复制代码
然后启动服务:
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama
复制代码
这样说明就启动了
运行qwen2.5模型
ollama run qwen2.5:3b
复制代码
然后直接输入题目就可以回答了
open-webui
固然直接使用ollama的方法可以用,但是不太方便,使用webui的可视化更简洁明白
安装open-webui
首先在linux中安装open-webui:
使用默认设置安装:
刚才 Ollama 在您的计算机上,请使用以下命令:
使用这个命令:
sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
复制代码
因为我已经安装完成了,且open-webui服务已经启动,所以输入命令后会提示
sudo docker ps # 输入这个命令可以查看到正在运行的docker
复制代码
以下为其他选项:
如果 Ollama 位于其他服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL:
这个此次不先容,下次实验使用
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
复制代码
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
复制代码
安装完成后,open-webui的网站为http://&{ip}:3000/
此处需要将网站的ip修改服务器内网的ip:
ifconfig # 查看服务器ip
然后打开网站如:
http://192.168.1.23:3000/
复制代码
这里可以选择模型
(待实现)下一期将参加内网穿透,实现外网访问功能
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
南七星之家
金牌会员
这个人很懒什么都没写!
楼主热帖
详讲Java开发中的六个常用API(Math,S ...
MySQL并行复制(MTS)原理(完整版) ...
鸿蒙到底是不是安卓?
BOS EDI 项目 Excel 方案开源介绍 ...
【K8S】K8S入门基础知识
软件项目管理 3.5.敏捷生存期模型 ...
译:SQLServer 事务复制延迟诊断 ...
java中Collections.addAll方法具有什么 ...
保姆级教程!玩转 ChunJun 详细指南 ...
给技术新人的ODPS优化建议
标签云
挺好的
服务器
浏览过的版块
物联网
快速回复
返回顶部
返回列表