LLaMA Factory框架微调GLM-4大模子,傻瓜式教学!!! [复制链接]
发表于 2025-8-31 03:41:29 | 显示全部楼层 |阅读模式
官方链接

假如中途有什么问题可以去开源项目中查看是否有解答,先附上llaMA和GLM-4开源地点
llaMA
GLM-4
前置准备

系统ubuntu24.04
显卡A10
nvidia驱动版本550
conda(环境管理工具,保举,也可不用)
python环境,本人使用3.12
CUDA版本,本人使用12.0
git工具
LLaMA-Factory摆设

创建一个崭新目次,执行以下下令
  1. git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
  2. cd LLaMA-Factory
  3. pip install -e ".[torch,metrics]"
复制代码
安装完依赖之后我们启动
  1. llamafactory-cli webui
复制代码
启动完成之后我们就可以通过http://ip:7860举行访问啦

模子微调

准备模子

我们这里准备的是glm-4-9b-chat-hf模子(等同glm-4-9b-chat)举行微调
起首我们需要把模子下载下来,这里有两种方式
1.直接使用git下载
  1. git clone https://www.modelscope.cn/ZhipuAI/glm-4-9b-chat-hf.git
复制代码
2.使用modelscope下载
  1. pip install modelscope
  2. #下载模型到当前目录
  3. modelscope download --model ZhipuAI/glm-4-9b-chat-hf ./
复制代码
微调利用

修改语言

可以将语言先改为中文

选择模子

可以看到这里还支持很多其他模子的微调,我们选择微调glm-4-9b-chat

修改模子路径

修改模子路径为刚才下载的模子的路径

修改练习数据集

可以看到这里面是对于一些关于你是谁,来自于哪的数据集
  1. vim data/identity.json
复制代码
直接将{{name}} 和 {{author}}更换成自己想要的数据

选择数据集

这里的数据集都是启动目次下的data目次.json的文件汇总

开始练习

选择数据集之后即可开始练习,轮数可以调到10的样子,不然可能练习效果不显著

选择检查点

练习完成之后,选择检查点路径,这里就是输出效果的路径

加载模子


发送问题

问问他是谁

查看效果

可以看到已经给微调乐成了

到这里就乐成微调了他是谁的这个问题,可以看到微调的话需要大量的数据集来举行练习。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

登录后关闭弹窗

登录参与点评抽奖  加入IT实名职场社区
去登录
快速回复 返回顶部 返回列表