论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
人工智能
›
人工智能
›
通过LlaMA-Factory导出的模型部署到Ollama
通过LlaMA-Factory导出的模型部署到Ollama
宝塔山
金牌会员
|
12 小时前
|
显示全部楼层
|
阅读模式
楼主
主题
859
|
帖子
859
|
积分
2577
LlaMA-Factory导出的模型转换格式
堆栈地址:https://github.com/ggerganov/llama.cpp
git clone堆栈之后,下载相干依赖:
cd /opt/gl/llama.cpp-master/llama.cpp-master
pip install -r requirements.txt
复制代码
转换大模型格式
转换为gguf格式
python convert_hf_to_gguf.py /opt/gl/model/lin_model --outfile /opt/gl/model/lin_model.gguf --outtype q8_0
复制代码
创建ModelFile文件
FROM D:\ollama\models\lin_model\lin_model.gguf
复制代码
添加自定义模型
ollama create lin_model -f D:\ollama\models\lin_model\ModelFile
复制代码
检察本地模型
运行本地大模型
ollama run lin_model:latest
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
宝塔山
金牌会员
这个人很懒什么都没写!
楼主热帖
分布式事务 | 使用DTM 的Saga 模式 ...
Sqlserver2012卸载
WebLogic JNDI注入(CVE-2021-2109) ...
Maxwell 一款简单易上手的实时抓取Mysq ...
哈工大信息安全概论期末复习 ...
【K哥爬虫普法】你很会写爬虫吗?10秒 ...
php微信自定义分享链接,标题,描述, ...
轻量级CI/CD发布部署环境搭建及使用_03 ...
JVM中的编译器
Redis监控指标
标签云
挺好的
服务器
快速回复
返回顶部
返回列表