IT评测·应用市场-qidao123.com

标题: LLaMA-Factory环境搭建与运行示例 [打印本页]

作者: 雁过留声    时间: 2025-3-11 17:57
标题: LLaMA-Factory环境搭建与运行示例
一、LLaMA-Factory

LLaMA-Factory项目
二、LLaMA-Factory环境搭建

1.底子环境搭建

底子环境必要
环境推荐版本CUDA12.1Python3.11PyTorch2.4.0 具体安装可参考我的另一篇文章fairseq-0.12.2多机练习环境搭建。
2.安装 LLaMA-Factory依靠

  1. git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
  2. cd LLaMA-Factory
复制代码
  1. pip3 install -e ".[torch]" -i https://pypi.tuna.tsinghua.edu.cn/simple
复制代码
  1. pip3 install torch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 --index-url https://download.pytorch.org/whl/cu121 -i https://pypi.tuna.tsinghua.edu.cn/simple
复制代码
三、LLaMA-Factory运行示例

1.使用下令行接口

  1. model_name_or_path: meta-llama/Meta-Llama-3-8B-Instruct
  2. template: llama3
复制代码
阐明:

  1. CUDA_VISIBLE_DEVICES=0 llamafactory-cli chat examples/inference/llama3.yaml
复制代码
阐明:

2.使用浏览器界面

  1. model_name_or_path: meta-llama/Meta-Llama-3-8B-Instruct
  2. template: llama3
复制代码
阐明:

  1. CUDA_VISIBLE_DEVICES=0 GRADIO_SERVER_PORT=8123 llamafactory-cli chat examples/inference/llama3.yaml
复制代码
阐明:

3.使用练习方式批量推理

  1. ### model
  2. model_name_or_path: meta-llama/Meta-Llama-3-8B-Instruct
  3. ### method
  4. stage: sft
  5. do_predict: true
  6. finetuning_type: full
  7. ### dataset
  8. eval_dataset: test
  9. template: llama3
  10. cutoff_len: 4096
  11. overwrite_cache: true
  12. preprocessing_num_workers: 16
  13. ### output
  14. output_dir: output
  15. overwrite_output_dir: true
  16. ### eval
  17. per_device_eval_batch_size: 1
  18. predict_with_generate: true
  19. do_sample: true
  20. temperature: 0.6
  21. top_p: 0.9
  22. num_beams: 5
复制代码
阐明:

  1. {
  2.   "test": {
  3.     "file_name": "test.json"
  4.   },
  5.   "test1": {
  6.     "file_name": "test1.json"
  7.   }
  8. }
复制代码
阐明:

  1. CUDA_VISIBLE_DEVICES=0 llamafactory-cli train llama3.yaml
复制代码
阐明:


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/) Powered by Discuz! X3.4