一文搞定llama在linux的下载(huggingface版,利用镜像)
下载Llama需要两步走[*]申请参数
[*]下载模型
申请参数
起首我在github上找到llama项目,链接:Llama3
权限申请我保举利用huggingface。这是因为用meta llama官网申请的时候,我把信息都填好了,结果按accept and continue它没动静。但huggingface申请参数就很顺遂。
我们在huggingface上找到了meta-llama项目,找到我们要下载的模型:比如Llama-3.2-1B
我们需要注册才气下载模型:
https://i-blog.csdnimg.cn/direct/2dcef6b0c624411786e5362ad5c61141.png
注册完了以后填信息,留意这里有个坑。这个table填China是批准不了的,可以天别的国家(学校等可以填别的国家的学校),邮箱我用的是个人邮箱。
https://i-blog.csdnimg.cn/direct/ab6c231333244c25a996c730d0e59660.png
填完了以后它审批好会发邮件给你(huggingface注册用的邮箱)这个时候你就能下载了。
下载模型
[*] huggingface access token
https://i-blog.csdnimg.cn/direct/5ed635cf35b94423b844ab69e6e79258.png
创建token,token是write种别,然后把api key复制下来
[*] 设置镜像源 (可以将它写入~/.bashrc)
# 这个是设置镜像源的环境变量,建议将上面这一行写入 ~/.bashrc。若没有写入,则每次下载时都需要先输入该命令
export HF_ENDPOINT=https://hf-mirror.com
[*]linux登录huggingface:
这里我用的是huggingface-hub==0.23.4
假如没有install的可以pip install 一下
huggingface-cli login
之后输入你的api key,你就成功登录了
[*]用命令行举行下载
huggingface-cli download --resume-download meta-llama/Llama-3.2-1B --local-dir meta-llama/Llama-3.2-1B
# local dir代表本地存储的位置
参考链接:
api key的获取
huggingface login 的方式
国内镜像源利用方法
huggingface申请方法借鉴
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]