论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
软件与程序人生
›
云原生
›
Linux快速部署大语言模型LLaMa3,Web可视化j交互(Ollam ...
Linux快速部署大语言模型LLaMa3,Web可视化j交互(Ollama+Open Web UI) ...
莫张周刘王
论坛元老
|
2024-6-28 23:31:45
|
显示全部楼层
|
阅读模式
楼主
主题
1920
|
帖子
1920
|
积分
5760
本文在个人博客同步发布,前去阅读
1 介绍
本文将介绍使用开源工具Ollama(60.6k⭐)部署LLaMa大模型,以及使用Open WebUI搭建前端Web交互界面的方法。
我们先来过一遍几个相关的概念,对这块比较认识的朋侪可跳过。
1.1 大规模语言模型
大规模语言模型(Large Language Models, LLMs),顾名思义是指在大量语料数据的底子上训练成的模型,能够模仿人类的语言风格天生较为生动的文本。这类模型的主要特征有:
规模大:训练所使用的数据量非常庞大,有时超过1000亿个参数。
复杂性高:模型结构比较复杂
具有较好的上下文明确能力:大规模语言模型可以明确文本的上下文和细微差别
1.2 LLaMa
LLaMA是一种大规模语言模型,由Meta AI基于Transformer深度学习框架开发。该模型旨在天生各种风格的高质量文本(比方创意写作、对话甚至诗歌),能够胜任以下工作:
自然语言处理(NLP):明确和天生自然语言。
呆板学习:根据数据和算法学习新的信息和技能。
对话天生:可以与用户进行对话,并根据情况天生符合的回应。
1.3 Ollama
官网:Ollama
API文档:ollama/docs/api.md at main · ollama/ollama (github.com)
支持的模型列表:library
一款可以快速部署大模型的工具。
1.4 Open WebUI
官网:Open WebUI
相关介绍及源码:open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) (github.com)
Open WebUI 是一个可视化的Web交互环境,它拥有清新简约的UI风格,具有可扩展、功能丰富、用户友好、自托管的特点,可以完全离线运行。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。
2 部署LLM服务
本文介绍的方法使用于Linux系统,同样实用于Windows系统的WSL(安装方法可参见我的这篇文章)。
2.1 部署Ollama
1、下载Ollama
Linux系统的安装下令如下:
curl -fsSL https://ollama.com/install.sh | sh
复制代码
※别的官方还提供了macOS和Windows的下载方式。
2、下载llama3模型
ollama run llama3
复制代码
※在这里可以看到该下令的相关介绍。
上述下令将主动拉取模型,并进行sha256验签。处理完毕后主动进入llama3的运行环境,可以使用中文或英文进行提问,ctrl+D退出。
3、配置服务
为使外网环境能够访问到服务,必要对HOST进行配置。
打开配置文件:vim /etc/systemd/system/ollama.service,根据情况修改变量Environment:
服务器环境下:Environment="OLLAMA_HOST=0.0.0.0:11434"
虚拟机环境下:Environment="OLLAMA_HOST=服务器内网IP地址:11434"
3、启动服务
启动服务的下令:ollama serve
首次启动可能会出现以下两个提示:
Couldn’t find ‘/home/用户名/.ollama/id_ed25519’. Generating new private key.
该提示表现文件系统中不存在ssh私钥文件,此时下令将主动帮我们天生该文件,并在下令行中打印相应的公钥。
Error: listen tcp 127.0.0.1:11434: bind: address already in use
看到该提示,大概率服务已在运行中,可以通过netstat -tulpn | grep 11434下令进行确认。
若下令输出的最后一列包含“ollama”字样,则表现服务已启动,无需做额外处理。
否则,可实行执行下列下令重启ollama:
# ubuntu/debian
sudo apt update
sudo apt install lsof
stop ollama
lsof -i :11434
kill <PID>
ollama serve
# centos
sudo yum update
sudo yum install lsof
stop ollama
lsof -i :11434
kill <PID>
ollama serve
复制代码
假如您使用的是MacOS,可在
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
莫张周刘王
论坛元老
这个人很懒什么都没写!
楼主热帖
06、etcd 写请求执行流程
网上书店管理系统项目【Java数据库编程 ...
软件测试项目实战经验附视频以及源码【 ...
【云原生】三、详细易懂的Docker 容器 ...
如何用同一套账号接入整个研发过程? ...
DevOps工具选型,什么才是中小企业的最 ...
四、WinUI3下TitleBar的自定义
面向大规模神经网络的模型压缩和加速方 ...
攻防世界pwn题:实时数据检测 ...
c# sqlsugar,hisql,freesql orm框架全 ...
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表