prompt工程

火影  金牌会员 | 2025-3-21 13:47:39 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 979|帖子 979|积分 2937

1. 传统NLP方法(如Word2Vec、BERT)



  • 任务目标

    • 意图识别:通过特征提取(如分词、词向量)和分类模子(如SVM、BERT)将输入文本映射到预定义的意图类别。
    • 流程:数据标注 → 特征工程 → 模子练习 → 摆设推理。

  • 优点

    • 精度可控,恰当结构化任务(如分类、实体识别)。
    • 可表明性强(如BERT的注意力机制可视化)。

  • 缺点

    • 必要大量标注数据(如医疗意图标签)。
    • 范畴迁移困难(如从通用文本迁移到医疗场景需重新练习)。
    • 复杂任务(如多步调推理)需多模子串联。

2. 提示词工程(Prompt Engineering)


2. 优势互补示例


  1. # 流程示例:传统方法 + 提示词工程
  2. 1. 输入:用户输入“胸痛、呼吸困难持续2小时”。  
  3. 2. 预处理:  
  4.    - BERT提取关键症状(chest pain, dyspnea)。  
  5.    - Word2Vec计算症状向量,过滤无关词汇。  
  6. 3. 提示词工程:  
  7.    "根据症状({chest pain, dyspnea})推荐科室,要求:  
  8.    若症状持续超过1小时,直接推荐急诊科。"  
  9. 4. 输出:急诊科 + 可能疾病(如心肌梗死)。  
复制代码



  • 任务目标

    • 指令对齐:通过自然语言指令引导大模子(如GPT、LLaMA)天生符合预期的输出(如诊断建议、病历天生)。
    • 流程:计划提示词 → 输入模子 → 调整提示词 → 优化输出。

  • 优点

    • 零样本/少样本学习:无需大量标注数据,直接利用模子的预练习知识。
    • 机动性:快速适应新任务(如新增“急诊分诊”场景)。
    • 端到端输出:直接天生结构化效果(如诊断报告)。

  • 缺点

    • 输出质量依赖模子的预练习数据和提示词计划。
    • 必要人工迭代优化提示词。

  • 预处理阶段

    • 使用BERT举行症状文本的分词和实体识别(如提取“胸痛”“发热”等关键词)。
    • 将结构化效果输入提示词模板,提升模子输入的正确性。

  • 后处理阶段

    • 用Word2Vec计算模子输出与医疗知识库的相似度,验证效果合理性。

 1. 优先选择提示词工程的环境


  • 数据敏感场景:医疗数据隐私要求高,无法大规模标注。
  • 快速迭代需求:需快速新增任务(如疫情爆发时新增“新冠症状识别”)。
  • 复杂推理任务:必要多步调逻辑(如症状→疾病→治疗方案推导)。
2. 优先选择传统方法的环境



  • 高精度需求:如药物副作用分类(需严格符合FDA标准)。
  • 实时性要求高:传统模子推理速率更快(如轻量级BERT)。
  • 可表明性要求:需向医生表明决策逻辑(如可视化注意力权重)。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

火影

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表