llama神经网络的布局,llama-3-8b.layers=32 llama-3-70b.layers=80; 2000 ...

打印 上一主题 下一主题

主题 1031|帖子 1031|积分 3093

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
目次
llama-3-8b.layers=32    llama-3-70b.layers=80
llama神经网络的布局
Llama神经网络布局示例
示例中的输入输出巨细
实际举例说明2000个汉字文本数据集
初始化词嵌入矩阵
1. 输入层
2. 嵌入层
3. 卷积层
4. 全毗连层





llama-3-8b.layers=32    llama-3-70b.layers=80

  1. shard_mappings = {
  2.     "llama-3-8b": {
  3.         "MLXDynamicShardInferenceEngine": Shard(model_id="mlx-community/Meta-Llama-3-8B-Instruct-4bit", start_layer=0, end_layer=0,<strong> n_layers=32</strong>),
  4.         "TinygradDynamicShardInferenceEngine": Shard(model_id="llama3-8b-sfr", start_layer=0, end_layer=0, n_layers=32),
  5.     },
  6.     "llama-3-70b": {
  7.         "MLXDynamicShardInferenceEngine": Shard(model_id="mlx-community/Met
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

张春

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表