论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
人工智能
›
人工智能
›
Qwen系列大模型和LlaMA系列大模型都使用的什么分词器 ...
Qwen系列大模型和LlaMA系列大模型都使用的什么分词器
曂沅仴駦
论坛元老
|
2025-4-22 09:38:01
|
显示全部楼层
|
阅读模式
楼主
主题
1792
|
帖子
1792
|
积分
5376
Qwen系列与LLaMA系列分词器技术深度解析
<hr>
一、Qwen系列分词器技术架构
Qwen系列(包括Qwen1.5、Qwen2等)接纳
基于字节级字节对编码(Byte-level BPE)的分词器
,其核心设计与优化策略如下:
底层框架与扩展性
开源BPE实现
:基于Meta的
tiktoken
框架(GPT-4同类技术),通过归并高频字符对构建更长的语义单元,实现文本压缩与高效分词 。
多语言优化词表
:在基础词库cl100k(约10万词)上扩展,新增
中文字词、成语高频短语
(如“人工智能”)及多语言符号,终极词表达到
152,000个Token
,覆盖中文、英语、代码等场景 。
数字处置惩罚策略
:将数字字符串拆分为单个数字(如“2025”→“2”“0”“2”“5”),避免长数字占用独立Token,提升对数学推理任务的支持 。
中文优化特性
压缩率上风
:Qwen分
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
曂沅仴駦
论坛元老
这个人很懒什么都没写!
楼主热帖
ICA:1靶场
gitee使用教程,创建项目仓库并上传代 ...
教你如何解决T+0的问题
国内IT硬件如何铸就新辉煌? ...
架构设计基础设施保障IaaS之计算篇 ...
快速入门python看过的一些资料 ...
JS中的Set与Map
Excel文件校验
超融合技术在银行业的应用及实施中的关 ...
如何筑造数据安全边界
标签云
国产数据库
集成商
AI
运维
CIO
存储
服务器
浏览过的版块
前端开发
Nosql
linux
快速回复
返回顶部
返回列表