论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
人工智能
›
人工智能
›
10、ollama启动LLama_Factory微调大模子(llama.cpp) ...
10、ollama启动LLama_Factory微调大模子(llama.cpp)
海哥
金牌会员
|
2025-3-2 05:16:57
|
显示全部楼层
|
阅读模式
楼主
主题
965
|
帖子
965
|
积分
2895
在前面章节中介绍了如何使用LLama_Factory微调大模子,并将微调后的模子文件合并导出,本节我们我们看下如何使用ollama进行调用。
1、llama.cpp
LLama_Factory练习好的模子,ollama不能直接使用,必要转换一下格式,我们按照ollama官网的提示使用llama.cpp来进行实现。
1.1 安装llama.cpp
下载 llama.cpp
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
# 安裝 Python 相依套件
pip install -r requirements.txt
复制代码
1.2 格式转换
python convert_hf_to_gguf.py /root/LLaMA-Factory-main/Qwen2-0.5B-Chat_all \
> --outfile /root/LLaMA-Factory-main/Qwen2-0.5B-Chat_all/Qwen2-0.5B-Chat_829.gguf
复制代码
/root/LLaMA-Factory-main/Qwen2-0.5B-Chat_all :微调后合并的模子文件路径
/root/LLaMA-Factory-main/Qwen2-0.5B-Chat_all/Qwen2-0.5B-Chat_829.gguf :转换后的文件路径和名称
速率很快
2、ollama启动模子
2.1 Linux安装ollama
curl -fsSL https://ollama.com/install.sh | sh
复制代码
如果服务器网络不好无法下载,可以先下载到当地再上传
下载地点:https://ollama.com/download/ollama-linux-amd64.tgz
解压安装:sudo tar -xzf ollama-linux-amd64.tgz -C /usr/local/
2.2 加载模子
要导入 GGUF 模子到 Ollama 中,您必要创建一个名为 ModelFile 的文件,并在此中包含指定的内容。以下是如何创建这个文件的步骤:
选择创建文件的目录
必要确定把ollama相关的配置文件放在那个目录,比如在主目录中创建一个专用目录来存放模子文件:
mkdir -p ~/ollama_models/my_model
cd ~/ollama_models/my_model
复制代码
创建 ModelFile 文件
在进入目的目录后,使用以下命令创建一个名为 ModelFile 的文件:
touch ModelFile
复制代码
编辑 ModelFile 文件
接下来,使用您认识的文本编辑器(如 nano、vi 或 vim)打开并编辑 ModelFile 文件。例如,使用 nano 编辑:
nano ModelFile
复制代码
在文件中输入以下内容,将 /path/to/file.gguf 更换为 GGUF 文件的现实路径:
FROM /path/to/file.gguf
复制代码
例如,我的 GGUF 文件位于 FROM /root/LLaMA-Factory-main/Qwen2-0.5B-Chat_all/Qwen2-0.5B-Chat_829.gguf
,则内容应为:
FROM /root/LLaMA-Factory-main/Qwen2-0.5B-Chat_all/Qwen2-0.5B-Chat_829.gguf
复制代码
保存并关闭文件
在编辑完成后,保存文件并退出编辑器:
在 nano 中,按 Ctrl + O 保存,按 Enter 确认保存路径,然后按 Ctrl + X 退出编辑器。
在 vi 或 vim 中,按 Esc 键,然后输入 :wq 保存并退出。
使用 Ollama 导入模子
完成 ModelFile 文件的创建后,使用 Ollama 的命令来导入该模子:
ollama create my-model -f /root/ollama_models/my_model/ModelFile
复制代码
在上述命令中,my-model 为模子选择的名称。
查看创建的模子
运行模子
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
海哥
金牌会员
这个人很懒什么都没写!
楼主热帖
makefile简单脚本编写和Linux调试器gdb ...
【第90题】JAVA高级技术-网络编程9(简 ...
CMOS图像传感器——黑电平校正 ...
windows提权-系统错误配置提权 ...
什么是精准卫星授时?什么是NTP网络时 ...
Linux【实操篇】—— 日志管理 ...
TCP 时间戳妙用
如何使用 FlowUs 、Notion 等笔记软件 ...
C++ 深度解析教程(十七)C 语言异常处 ...
「低功耗蓝牙模块」主从一体 蓝牙嗅探- ...
标签云
运维
CIO
存储
服务器
浏览过的版块
SQL-Server
运维.售后
linux
网络安全
快速回复
返回顶部
返回列表