火影 发表于 2025-3-21 13:47:39

prompt工程

1. 传统NLP方法(如Word2Vec、BERT)



[*]任务目标:

[*]意图识别:通过特征提取(如分词、词向量)和分类模子(如SVM、BERT)将输入文本映射到预定义的意图类别。
[*]流程:数据标注 → 特征工程 → 模子练习 → 摆设推理。

[*]优点:

[*]精度可控,恰当结构化任务(如分类、实体识别)。
[*]可表明性强(如BERT的注意力机制可视化)。

[*]缺点:

[*]必要大量标注数据(如医疗意图标签)。
[*]范畴迁移困难(如从通用文本迁移到医疗场景需重新练习)。
[*]复杂任务(如多步调推理)需多模子串联。

2. 提示词工程(Prompt Engineering)


2. 优势互补示例


# 流程示例:传统方法 + 提示词工程
1. 输入:用户输入“胸痛、呼吸困难持续2小时”。
2. 预处理:
   - BERT提取关键症状(chest pain, dyspnea)。
   - Word2Vec计算症状向量,过滤无关词汇。
3. 提示词工程:
   "根据症状({chest pain, dyspnea})推荐科室,要求:
   若症状持续超过1小时,直接推荐急诊科。"
4. 输出:急诊科 + 可能疾病(如心肌梗死)。


[*]任务目标:

[*]指令对齐:通过自然语言指令引导大模子(如GPT、LLaMA)天生符合预期的输出(如诊断建议、病历天生)。
[*]流程:计划提示词 → 输入模子 → 调整提示词 → 优化输出。

[*]优点:

[*]零样本/少样本学习:无需大量标注数据,直接利用模子的预练习知识。
[*]机动性:快速适应新任务(如新增“急诊分诊”场景)。
[*]端到端输出:直接天生结构化效果(如诊断报告)。

[*]缺点:

[*]输出质量依赖模子的预练习数据和提示词计划。
[*]必要人工迭代优化提示词。

[*] 预处理阶段:

[*]使用BERT举行症状文本的分词和实体识别(如提取“胸痛”“发热”等关键词)。
[*]将结构化效果输入提示词模板,提升模子输入的正确性。

[*] 后处理阶段:

[*]用Word2Vec计算模子输出与医疗知识库的相似度,验证效果合理性。

 1. 优先选择提示词工程的环境


[*]数据敏感场景:医疗数据隐私要求高,无法大规模标注。
[*]快速迭代需求:需快速新增任务(如疫情爆发时新增“新冠症状识别”)。
[*]复杂推理任务:必要多步调逻辑(如症状→疾病→治疗方案推导)。
2. 优先选择传统方法的环境



[*]高精度需求:如药物副作用分类(需严格符合FDA标准)。
[*]实时性要求高:传统模子推理速率更快(如轻量级BERT)。
[*]可表明性要求:需向医生表明决策逻辑(如可视化注意力权重)。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: prompt工程