多张GPU卡

不到断气不罢休  论坛元老 | 2024-9-18 20:16:16 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1753|帖子 1753|积分 5259

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
from transformers import pipeline
from accelerate import init_empty_weights, infer_auto_device_map
from transformers import AutoModelForCausalLM, AutoTokenizer
初始化加速器

from accelerate import Accelerator
accelerator = Accelerator()
加载模型和 tokenizer

tokenizer = AutoTokenizer.from_pretrained(“/app/model/”)
model = AutoModelForCausalLM.from_pretrained(“/app/model/”)
将模型分布到多张 GPU 上

device_map = infer_auto_device_map(model, max_memory={0: “16GB”, 1: “16GB”, 2: “16GB”, 3: “16GB”, 4: “16GB”, 5: “16GB”, 6: “16GB”, 7: “16GB”})
将模型加载到设备上

model = model.from_pretrained(“/app/model/”, device_map=device_map)
使用 pipeline

generator = pipeline(“text-generation”, model=model, tokenizer=tokenizer, device_map=device_map)
进行推理

output = generator(“Your input text”, max_length=30)
print(output)

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

不到断气不罢休

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表