基于BERT-Prompt的范畴句子向量训练方法

[复制链接]
发表于 2025-7-8 13:01:39 来自手机 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
基于BERT-Prompt的范畴句子向量训练方法

一、核心原理:基于BERT-Prompt的范畴句子向量训练方法

论文提出一种联合提示学习(Prompt Learning)和BERT的范畴句子向量训练方法,旨在解决装备保障范畴文本的语义表现问题。核心原理如下:
以下通过详细例子表明传统词向量方法和BERT嵌入的问题:
传统词向量方法:忽略词序和依赖关系

场景:分析句子“我 爱 北京 天安门”和“天安门 爱 我 北京”


  • 传统方法(均匀词向量)
         
    • 提取词向量:
             
      • “我”“爱”“北京”“天安门”的词向量分别为 v1,v2,v3,v4v_1, v_2, v_3, v_4   
        


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
回复

使用道具 举报

快速回复 返回顶部 返回列表