5. 租赁 GPU 服务器并微调 Llama-Factory 模型

打印 上一主题 下一主题

主题 872|帖子 872|积分 2616

教学视频链接6.租赁 GPU 服务器并微调 Llama-Factory 模型_哔哩哔哩_bilibili
https://www.bilibili.com/video/BV1NKNSeDEgt/ 


租赁服务器

从 AutoDL 站点 租用服务器:AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL




3090 专区选择按量计费


基础镜像选择 pytorch 2.1.2
购买成功后通过 jupyterLab进入控制台
安装 LLaMA-Factory

从 这个链接 下载LLaMA-Factory的压缩包LLaMA-Factory.tar.gz
  1. tar -xvf LLaMA-Factory.tar.gz
  2. # 创建虚拟环境(如果已创建,请忽略此步骤)
  3. conda create -n llama_factory -y python=3.11 pip
  4. # 激活虚拟环境
  5. conda activate llama_factory
  6. # 使用 pip 安装依赖
  7. cd ~/LLaMA-Factory
  8. pip install -e ".[torch,metrics]"
  9. pip install modelscope -U
复制代码
验证安装是否成功
  1. # 查看 LLaMA-Factory 版本
  2. llamafactory-cli version
  3. # 如果出现下面信息,代表安装成功
  4. ----------------------------------------------------------
  5. | Welcome to LLaMA Factory, version 0.9.1.dev0 |
  6. | |
  7. | Project page: https://github.com/hiyouga/LLaMA-Factory |
  8. --------------------------------------------------------
复制代码
使用 LLaMA-Factory 运行基座模型

启动 web 界面
  1. export USE_MODELSCOPE_HUB=1 # 使用 modelscope 下载模型
  2. export NCCL_P2P_DISABLE="1"
  3. export NCCL_IB_DISABLE="1"
  4. export MODELSCOPE_CACHE='/root/autodl-tmp/modelscope/'
  5. export MODELSCOPE_MODULES_CACHE='/root/autodl-tmp/modelscope/modelscope_modules'
  6. llamafactory-cli webui
复制代码
设置隧道
  1. ssh -CNgv -L 7860:127.0.0.1:7860 root@connect.yza1.seetacloud.com -p 49959
复制代码
设置隧道后,应该可以通过本机地点:http://127.0.0.1:7860 打开 llamafactory 的 ui 界 面,通过在 Lang 选项卡中,选择 zh 即可将界面调整为中文。


语言 zh,模型 glm-4-9B-Chat


点击 chat 选项卡的加载模型(等一段时间,可以在终端看进度条加载完成),就可以基于 LlamaFactory 模型进行谈天了


我们看到,对于你是谁 这个标题,现在的回答是清华大学的某某某
使用 LLaMA-Factory 微调模型

自定义数据集使用天翼云盘 珍藏优美生存 家庭云|网盘|文件备份|资源分享 下的 my_demo.json 文件 ,打开~/LLaMA-Factory/data/dataset_info.json 文件,将 my_demo 数据块,加入到文件的开头处,生存即可。


刷新一下页面,然后选择 my_demo 数据集:


注意,学习率改为 5e-4,点击预览数据集可以看到 my_demo.json 文件内容
点击“开始”按钮进行微调,等 1 到 2 分钟,可以看到曲线呈向下趋势。


微调完成后,测试微调结果:


选择刚刚的检查点,加载模型


加载好后,重新提问 你是谁 这个标题,可以看到,回答已经变成了 信息中心了。
将微调模型仿 OpenAI 兼容接口

启动接口
  1. llamafactory-cli api --model_name_or_path /root/autodl-tmp/modelscope/hub/ZhipuAI/glm-4-9b-chat --template glm4 --adapter_name_or_path saves/GLM-4-9B-Chat/lora/train_2024-10-02-15-23-47 --finetuning_type lora
复制代码
设置隧道
  1. ssh -CNgv -L 8000:127.0.0.1:8000 root@connect.yza1.seetacloud.com -p 49959
复制代码
下令行测试
  1. curl http://127.0.0.1:8000/v1/chat/completions \
  2. -H "Content-Type: application/json" \
  3. -H "Authorization: Bearer x" \
  4. -d '{
  5. "model": "glm4-9b-chat",
  6. "messages": [
  7.         {
  8.                 "role": "user",
  9.                 "content": "你是谁?"
  10.         }
  11. ],
  12. "max_tokens": 4096
  13. }'
复制代码


可以看到,模型使用我们微调后的 信息中心 相干回答了。
 文章相干 pdf 文档 及 教学视频、微调 json 文件、LlaMa-Factory 压缩包下载地点:https://cloud.189.cn/t/eiauqe3aYjYz(访问码:wz0d)




免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

水军大提督

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表