论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
利用llama.cpp转换safetensors格式的模子为gguf格式 ...
利用llama.cpp转换safetensors格式的模子为gguf格式
勿忘初心做自己
论坛元老
|
2025-4-20 10:29:02
|
显示全部楼层
|
阅读模式
楼主
主题
1791
|
帖子
1791
|
积分
5373
Ollama如何运行魔塔社区下载的大模子
在魔塔社区或huggingface下载的模子通常以 safetensors 格式存储,而这种格式无法直接被 ollama 利用。因此,我们可以通过 llama.cpp 工具链将模子转换为兼容的 gguf 格式,从而实现无缝集成。
第一步:获取并设置 llama.cpp
首先,我们必要从 GitHub 堆栈克隆 llama.cpp 工具链。这一工具链以其高效的性能和对多种模子格式的支持而著名,是完成格式转换的抱负选择。
git clone https://github.com/ggerganov/llama.cpp.git
复制代码
进入项目目录后,安装所需的 Python 库依靠项,确保环境设置无误:
cd llama.cpp
pip install -r requirements.txt
复制代码
第二步:实行模子格式转换
接下来,我们将利用 convert_hf_to_gguf.py 脚本,将原始的 safetensors 模子文件转换为 gguf 格式。此过程不仅必要指定输入路径,还需明确输出路径及目标格式类型(例如 f16)。
假设模子文件存储于 E:\deepseek\DeepSeek-R1-Distill-Qwen-7B 目录下,运行以下命令:
python convert_hf_to_gguf.py "E:\deepseek\DeepSeek-R1-Distill-Qwen-7B" \
--outfile "E:\deepseek\DeepSeek-R1-Distill-Qwen-7B\DeepSeek-R1-Distill-Qwen-7B.gguf" \
--outtype f16
复制代码
经过半晌等待,脚本将天生一个名为 DeepSeek-R1-Distill-Qwen-7B.gguf 的文件,标志着格式转换的成功完成。
第三步:创建 Modelfile 文件
为了使 ollama 可以大概精确加载新转换的模子,我们必要为其编写一个 Modelfile 设置文件。该文件界说了模子的根本路径、对话模板以及停用词等关键参数。
在 E:\deepseek\DeepSeek-R1-Distill-Qwen-7B\ 目录下创建 Modelfile 文件,并写入以下内容:
FROM "E:\deepseek\DeepSeek-R1-Distill-Qwen-7B\DeepSeek-R1-Distill-Qwen-7B.gguf"
TEMPLATE """
{{- if .System }}{{ .System }}{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1}}
{{- if eq .Role "user" }}<|User|>{{ .Content }}
{{- else if eq .Role "assistant" }}<|Assistant|>{{ .Content }}{{- if not $last }}<|end▁of▁sentence|>{{- end }}
{{- end }}
{{- if and $last (ne .Role "assistant") }}<|Assistant|>{{- end }}
{{- end }}
"""
PARAMETER stop "<|begin▁of▁sentence|>"
PARAMETER stop "<|end▁of▁sentence|>"
PARAMETER stop "<|User|>"
PARAMETER stop "<|Assistant|>"
复制代码
这段设置代码不仅界说了模子的加载路径,还通过精巧的模板设计实现了用户与助手脚色之间的自然对话切换,同时设置了多个停用词以优化天生结果。
第四步:导入模子至 ollama
完成上述准备工作后,我们可以利用 ollama create 命令将模子正式导入到 ollama 中。在这里,我们为模子赋予了一个自界说名称 my_DeepSeek-R1-Distill-Qwen-7B,以便于后续调用。
ollama create my_DeepSeek-R1-Distill-Qwen-7B -f Modelfile
复制代码
实行完成后,运行以下命令检察模子是否成功导入:
ollama list
复制代码
如果齐备顺遂,您将在列表中看到刚刚创建的模子名称。
第五步:运行模子
最后,启动模子并体验其强盛的推理本领。只需运行以下命令即可:
ollama run my_DeepSeek-R1-Distill-Qwen-7B:latest
复制代码
此刻,模子已整装待发,随时准备响应您的提问或资助完成复杂的使命。
注意:llama.cpp可能只支持纯文本模子的转换。我尝试转换deepseek-vl2-tiny模子时报错。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
勿忘初心做自己
论坛元老
这个人很懒什么都没写!
楼主热帖
新一代企业级安全OneDNS
记一次有意思的业务实现 → 单向关注是 ...
集合论第6-8章
将git仓库从submodule转换为subtree ...
redis 工具类
Java 代理模式
Python 开发 漏洞的批量搜索与利用.(G ...
DNS协议
反射 p1 反射机制
[kubernetes]服务健康检查
标签云
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
Nosql
Java
IT职场那些事
快速回复
返回顶部
返回列表