论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
欺诈文本分类检测(十八):基于llama.cpp+CPU推理 ...
欺诈文本分类检测(十八):基于llama.cpp+CPU推理
数据人与超自然意识
论坛元老
|
2025-3-28 07:03:01
|
显示全部楼层
|
阅读模式
楼主
主题
1876
|
帖子
1876
|
积分
5628
1. 前言
前文我们用Lora训练出自己的个性化模型后,首先面临的问题是:怎样让模型在平凡机器上跑起来?毕竟模型微调时都是在几十G的专用GPU上训练的,假如换到只有CPU的平凡电脑上,大概会面临几秒蹦一个词的尴尬问题。
LLama.cpp项目就是来办理这个问题的,它是由Georgi Gerganov开发的一个开源工具,主要用于将大语言模型(LLM)转换为C++代码,使它们可以在任意的CPU装备上运行。
它的上风在于:
无需依靠pytorch和python,而是以c++编译的可实行文件来运行。
支持丰富的硬件装备,包罗Nvidia、AMD、Intel、Apple Silicon、华为昇腾等芯片。
支持f16和f32混合精度,也支持8位、4位甚至1位的量化来加快推理。
无需GPU,可只用CPU运行,甚至可以在Android装备上运行。
本文我们将用llama.
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
数据人与超自然意识
论坛元老
这个人很懒什么都没写!
楼主热帖
2023团队天梯模拟赛 L2-3 智能护理中心 ...
4. 事务和锁
Java Long类的bitCount()方法具有什么 ...
kubernetes使用学习(k8s)
渗透测试02
【记录】Python爬虫|爬取空间PC版日志 ...
数据类型前置知识
那些年你用过最好的键盘
OSPF多区域
SQL Server 触发器
标签云
渠道
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
数据安全
快速回复
返回顶部
返回列表