论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
手机端跑大模子:Ollma/llama.cpp/vLLM 实测对比 ...
手机端跑大模子:Ollma/llama.cpp/vLLM 实测对比
数据人与超自然意识
论坛元老
|
2024-10-9 09:29:29
|
显示全部楼层
|
阅读模式
楼主
主题
1889
|
帖子
1889
|
积分
5667
昨天给大家分享了:怎样在手机端用 Ollama 跑大模子
有小同伴问:为啥要选择 Ollama?
不用 Ollama,还能用啥?据猴哥所知,当前大模子加速的主流工具有:Ollama、vLLM、llama.cpp 等。
那我到底该用哪个呢?
今日分享:带大家在手机端分别跑通
Ollama、vLLM、llama.cpp
,并给出评测结论。
友情提醒:本文实操,请确保已在手机端预备好 Linux 环境,详细参考上篇教程。
1. 三者区别
以下是我对三者的简朴认识:
llama.cpp
:基于C++重写了 LLaMa 的推理代码,是一种推理框架。支持动态批处理,支持混合推理。
Ollama
:使用了 llama.cpp 提供的底层本领(如量化),小白易上手。
vLLM
:基于Python,采用PagedAttention高效管理注意力KV内存,支持动态批处理。
别的,三者的模子权重存储也不同:
llama.cpp
:只支持 gguf 格式的模子,可以本身生成或从 huggingface 等平台下载 gguf 格式的模子;
Ollama
:支持从项目标 Library 下载,也可以本身生成,有本身的存储格式;
vLLM
:支持从 huggingface/modelscope 等平台下载的模子文件。
Qwen2 对这3个方案都有支持,为此本文将以 qwen2:0.5b 进行实测。
2. Ollama
项目地址:https://github.com/ollama/ollama
怎样安装 Ollama,之前的教程已经介绍得很详细了:本地部署大模子?Ollama 部署和实战,看这篇就够了。
上篇中我们采用的是 Ollama+OpenWebUI 的镜像,如果端侧不需要 webui,可以用官方最新镜像,拉起一个容器:
sudo docker run -d -v ollama:/root/.ollama -p 1002:11434 --restart unless-stopped --name ollama ollama/ollama
复制代码
注意:因为官方镜像托管在 docker.hub,国内下载会失败
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
数据人与超自然意识
论坛元老
这个人很懒什么都没写!
楼主热帖
2023团队天梯模拟赛 L2-3 智能护理中心 ...
4. 事务和锁
Java Long类的bitCount()方法具有什么 ...
渗透测试02
kubernetes使用学习(k8s)
【记录】Python爬虫|爬取空间PC版日志 ...
数据类型前置知识
那些年你用过最好的键盘
OSPF多区域
SQL Server 触发器
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
Java
快速回复
返回顶部
返回列表