论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
大数据
›
数据仓库与分析
›
大语言模型微调数据竞赛,冠军!
大语言模型微调数据竞赛,冠军!
立山
金牌会员
|
2024-2-24 06:23:50
|
显示全部楼层
|
阅读模式
楼主
主题
693
|
帖子
693
|
积分
2079
近日,天池FT-Data Ranker竞赛落下帷幕,
天翼云智能边缘事业部AI团队
(后称天翼云AI团队)凭借在大语言模型(LLM)训练数据增强方面的卓越研究,
荣获大语言模型微调数据竞赛——7B模型赛道冠军
。
FT-Data Ranker竞赛是一场面向大语言模型研究、以数据为中心的竞赛,吸引了包括来自北京大学、Hantec等知名高校、研究机构、企业的
近400支优秀队伍参赛
。天翼云在激烈的角逐中脱颖而出,展现出强大的技术创新能力。
数据在大语言模型(LLM)的能力打造中发挥着至关重要的作用,更好地构建和处理数据集成为大语言模型领域研究的重点。本次竞赛的核心在于
独立、精确地评估和提升数据集质量,加速形成基准驱动的数据开发流程,增强大语言模型数据处理能力,提高该领域对数据质量和数据优化的理解能力。
本次竞赛特别关注微调(Fine-tuning)阶段的数据,要求参赛者对原始数据集进行清洗、过滤和增强,利用新数据集对特定模型进行微调,并在测试集上进行性能排名。
面向竞赛通用选择任务,天翼云AI团队自主构建了数据处理流程,使用多个文档去重、字符串过滤算子对低质的大规模原始语料进行处理,从而
获得高质量的模型训练数据
;同时,面向文本摘要任务,天翼云AI团队创新地采用
范式迁移
(Paradigm Transfer)和
模型能力蒸馏
(Distillation)的方法,在设定模型随机性为0的前提下,利用生成式模型将原始语料中的问答进行数据处理和迁移,作为摘要数据,间接扩充训练数据。基于以上方法和策略,团队在原始语料基础上构建了一个内容丰富、多样化的任务训练集,
帮助模型更好地学习和理解竞赛任务
。该方案的
创新性
和
实用性
得到了评委的高度认可。
本次竞赛团队采用的大语言模型训练数据增强技术,已在天翼云团队模型研发和生产业务中广泛应用。例如,在
天翼云政务大模型“慧泽”
的研发中,通过广泛采用
训练数据增强策略和算法
来提升模型的各项能力,使得“慧泽“具备了政务知识全面、意图理解能力强、应用广泛以及安全可靠等优势,可高效赋能政策咨询、政务导办、12345坐席辅助、智能办公等场景,助力提升城市治理水平。
未来,天翼云将继续推进人工智能相关技术创新以及实践应用,以更加全面、智能的产品与服务,赋能千行百业数字化转型。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
立山
金牌会员
这个人很懒什么都没写!
楼主热帖
IoTOS-v1.5.3 新增 智能诊断&会话记录 ...
【学习笔记】WPF-01:前言
基于SqlSugar的开发框架循序渐进介绍( ...
大数据管理框架CDP集群搭建
WPF源码轮廓
Python中可以用三种方法判断文件是否存 ...
读Java性能权威指南(第2版)笔记12_堆 ...
利用Python自动生成请假条
OpenKylin上运行Avalonia应用
软件工程师能力模型探讨
标签云
挺好的
服务器
快速回复
返回顶部
返回列表