1. 传统NLP方法(如Word2Vec、BERT)
- 任务目标:
- 意图识别:通过特征提取(如分词、词向量)和分类模子(如SVM、BERT)将输入文本映射到预定义的意图类别。
- 流程:数据标注 → 特征工程 → 模子练习 → 摆设推理。
- 优点:
- 精度可控,恰当结构化任务(如分类、实体识别)。
- 可表明性强(如BERT的注意力机制可视化)。
- 缺点:
- 必要大量标注数据(如医疗意图标签)。
- 范畴迁移困难(如从通用文本迁移到医疗场景需重新练习)。
- 复杂任务(如多步调推理)需多模子串联。
2. 提示词工程(Prompt Engineering)
2. 优势互补示例
- # 流程示例:传统方法 + 提示词工程
- 1. 输入:用户输入“胸痛、呼吸困难持续2小时”。
- 2. 预处理:
- - BERT提取关键症状(chest pain, dyspnea)。
- - Word2Vec计算症状向量,过滤无关词汇。
- 3. 提示词工程:
- "根据症状({chest pain, dyspnea})推荐科室,要求:
- 若症状持续超过1小时,直接推荐急诊科。"
- 4. 输出:急诊科 + 可能疾病(如心肌梗死)。
复制代码
- 任务目标:
- 指令对齐:通过自然语言指令引导大模子(如GPT、LLaMA)天生符合预期的输出(如诊断建议、病历天生)。
- 流程:计划提示词 → 输入模子 → 调整提示词 → 优化输出。
- 优点:
- 零样本/少样本学习:无需大量标注数据,直接利用模子的预练习知识。
- 机动性:快速适应新任务(如新增“急诊分诊”场景)。
- 端到端输出:直接天生结构化效果(如诊断报告)。
- 缺点:
- 输出质量依赖模子的预练习数据和提示词计划。
- 必要人工迭代优化提示词。
- 预处理阶段:
- 使用BERT举行症状文本的分词和实体识别(如提取“胸痛”“发热”等关键词)。
- 将结构化效果输入提示词模板,提升模子输入的正确性。
- 后处理阶段:
- 用Word2Vec计算模子输出与医疗知识库的相似度,验证效果合理性。
1. 优先选择提示词工程的环境
- 数据敏感场景:医疗数据隐私要求高,无法大规模标注。
- 快速迭代需求:需快速新增任务(如疫情爆发时新增“新冠症状识别”)。
- 复杂推理任务:必要多步调逻辑(如症状→疾病→治疗方案推导)。
2. 优先选择传统方法的环境
- 高精度需求:如药物副作用分类(需严格符合FDA标准)。
- 实时性要求高:传统模子推理速率更快(如轻量级BERT)。
- 可表明性要求:需向医生表明决策逻辑(如可视化注意力权重)。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |