EleutherAI/pythia-70m

打印 上一主题 下一主题

主题 971|帖子 971|积分 2913

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
EleutherAI/pythia-70m” 是由 EleutherAI 开辟的一个小型开源语言模型,它是 Pythia Scaling Suite 系列中参数目最小的模型,拥有大约 7000 万个参数。这个模型重要旨在促进对语言模型可解释性的研究;
Pythia Scaling Suite是为促进可解释性研究而开辟的模型集合(见论文)。它包含两组八个模型,大小分别为 70M、160M、410M、1B、1.4B、2.8B、6.9B 和 12B。对于每种尺寸,都有两个模型:一个在 Pile 上训练,一个在数据集全局去重后在 Pile 上训练。所有 8 种模型大小都以完全雷同的顺序在完全雷同的数据上进行训练。我们还为每个模型提供 154 个中心查抄点,作为分支托管在 Hugging Face 上。
Pythia 模型套件的计划初衷是促进大型语言模型的科学研究,尤其是可解释性研究。尽管没有将下游性能作为计划目的,但我们发现这些模型的性能与类似和雷同大小的模型相称或凌驾它们,比方 OPT 和 GPT-Neo 套件中的模型。


【1】https://github.com/EleutherAI/pythia 
【2】https://huggingface.co/EleutherAI/pythia-70m

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

温锦文欧普厨电及净水器总代理

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表