论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
人工智能
›
人工智能
›
每日AIGC最新希望(51):昆仑万维震撼发布16B DiT-MoE图 ...
每日AIGC最新希望(51):昆仑万维震撼发布16B DiT-MoE图像生成模子、东北大 ...
写过一篇
金牌会员
|
2024-8-9 19:24:30
|
显示全部楼层
|
阅读模式
楼主
主题
970
|
帖子
970
|
积分
2910
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
Diffusion Models专栏文章汇总:入门与实战
Scaling Diffusion Transformers to 16 Billion Parameters
本文介绍了DiT-MoE,
一种可扩展的稀疏变分Transformer模子
,它在保持与密集网络竞争力的同时,实现了高度优化的推理。通过
共享专家路由和专家级均衡损失筹划
,DiT-MoE捕获了共同知识并减少了不同路由专家之间的冗余。
DiT-MoE通过将DiT中的部分密集前馈层更换为稀疏MoE层,实现了条件计算。每个图像块的标志被路由到一组专家(即MLP层)。此外,引入了共享专家路由和专家负载均衡损失,以优化专家专业化并减少不同路由专家之间的冗余。
实验效果表明,DiT-MoE在条件图像生成使命中的表现与密集网络相当,但推理时的计算负载更小。通过合成图像数据进一步扩展模子参数至16.5B,DiT-MoE在512×512分辨率下达到了
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
写过一篇
金牌会员
这个人很懒什么都没写!
楼主热帖
hibernate入门
kubernetes数据持久化StorageClass动态 ...
回忆我的第一个软件项目
Debian/Ubuntu使用apt安装php8.x
26基于java的电影院售票管理系统设计 ...
Java EnumMap putAll()方法具有什么功 ...
OpenHarmony开源鸿蒙与HarmonyOS商业鸿 ...
管理软件定制公司 广州管理软件定制开 ...
Jvm调优
基于LSTM的多变量多输出温湿度预测 ...
标签云
AI
运维
CIO
存储
服务器
浏览过的版块
程序人生
Postrge-SQL技术社区
Java
快速回复
返回顶部
返回列表