开源模型应用落地-LangSmith试炼-入门初体验-监控和自动化(五) ...

打印 上一主题 下一主题

主题 571|帖子 571|积分 1713

一、前言

    在许多应用步伐中,特别是在大型语言模型(LLM)应用步伐中,收集用户反馈以了解应用步伐在实际场景中的表现是非常紧张的。
    LangSmith可以轻松地将用户反馈附加到跟踪数据中。通常最好提供一个简朴的机制(如赞成和反对按钮)来收集用户对应用步伐相应的反馈。然后,再使用 LangSmith SDK 或 API 发送跟踪反馈。    本章学习Monitoring and automations功能,帮助开发者更好地管理和优化LangChain应用步伐,进步其性能、可靠性和用户体验。

二、术语

2.1.Monitoring and automations

    具体功能包括:

  • 数据收集与分析:收集应用步伐在运行过程中的各种数据,如输入、输出、相应时间等,并进行分析和统计,以了解应用步伐的性能和行为。
  • 性能监控:实时监测应用步伐的性能指标,如相应时间、吞吐量、资源利用率等,实时发现性能问题并进行预警。
  • 错误检测与预警:检测应用步伐在运行过程中出现的错误、异常或故障,并实时发出预警信息,以便开发者实时采取措施进行修复。
  • 自动化测试:支持自动化测试,通过预设的测试用例对应用步伐进行定期测试,以确保其功能的精确性和稳定性。
  • 陈诉与可视化:生成具体的监控陈诉和可视化图表,帮助开发者更好地理解应用步伐的性能和问题,并为决议提供依据。
2.2.LangChain

    是一个全方位的、基于大语言模型这种猜测能力的应用开发工具。LangChain的预构建链功能,就像乐高积木一样,无论你是新手还是履历丰富的开发者,都可以选择得当自己的部门快速构建项目。对于盼望进行更深入工作的开发者,LangChain提供的模块化组件则允许你根据自己的需求定制和创建应用中的功能链条。
    LangChain本质上就是对各种大模型提供的API的套壳,是为了方便我们使用这些 API,搭建起来的一些框架、模块和接口。
   LangChain的重要特性:
        1.可以连接多种数据源,比如网页链接、本地PDF文件、向量数据库等
        2.允许语言模型与其情况交互
        3.封装了Model I/O(输入/输出)、Retrieval(检索器)、Memory(记忆)、Agents(决议和调理)等焦点组件
        4.可以使用链的方式组装这些组件,以便最好地完成特定用例。
        5.围绕以上设计原则,LangChain办理了现在开发人工智能应用的一些切实痛点。
2.3.LangSmith

    是一个用于构建生产级 LLM 应用步伐的平台,它提供了调试、测试、评估和监控基于任何 LLM 框架构建的链和智能代理的功能,并能与 LangChain 无缝集成。其重要作用包括:


  • 调试与测试:通过记录langchain构建的大模型应用的中心过程,开发者可以更好地调整提示词等中心过程,优化模型相应。
  • 评估应用结果:langsmith可以量化评估基于大模型的系统的结果,帮助开发者发现潜在问题并进行优化。
  • 监控应用性能:实时监控应用步伐的运行情况,实时发现异常和错误,确保其稳定性和可靠性。
  • 数据管理与分析:对大语言模型此次的运行的输入与输出进行存储和分析,以便开发者更好地理解模型行为和优化应用。
  • 团队协作:支持团队成员之间的协作,方便共享和讨论提示模板等。
  • 可扩展性与维护性:设计时考虑了应用步伐的可扩展性和恒久维护,允许开发者构建可发展的系统。
2.4.LangChain和LangSmith的关系

        LangSmith是LangChain的一个子产品,是一个大模型应用开发平台。它提供了从原型到生产的全流程工具和服务,帮助开发者构建、测试、评估和监控基于LangChain或其他 LLM 框架的应用步伐。
        LangSmith与LangChain 的关系可以概括为:LangChain是一个开源集成开发框架,而 LangSmith是基于LangChain 构建的一个用于大模型应用开发的平台。

三、前提条件

3.1.安装虚拟情况

  1. conda create --name langsmith python=3.10
  2. conda activate langsmith
  3. pip install -U langsmith -i https://pypi.tuna.tsinghua.edu.cn/simple
  4. pip install openai -i https://pypi.tuna.tsinghua.edu.cn/simple
复制代码
3.2.创建API key

操纵入口:LangSmithhttps://smith.langchain.com/settings未登录的需要先进行登录:
​​
登录乐成:
​​
点击Settings:
​​
点击Create API Key:

​​
​​
记录API Key:
​​

3.3.设置情况变量

windows:
​​
linux:
  1. export LANGCHAIN_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx
复制代码
ps:
1.需要更换3.2创建的API Key

四、技能实现

4.1.在应用步伐中过滤数据

4.1.1.导航栏过滤


PS:默认情况下,会自动创建IsRoottrue的过滤条件

4.1.1.1.根据属性过滤

根据自界说条件过滤,例如:Nameinvoke_llm

全文检索,例如:Full-Text Search为"导游"

4.1.1.2.根据查询语言过滤

在Raw Query中输入:eq(feedback_key,"test_key")

点击添加后,会把Raw查询添加到现有查询中(不是覆盖现有的查询条件

4.1.1.3.根据AI自动生成过滤条件

在AI Query中输入“导游

点击添加后,会自动生成Full-Text Search为"导游"的过滤条件

4.1.2.侧边栏过滤



4.2.使用监控图表

LangSmith 有一组可访问每个跟踪项目的监控图表。
过页面顶部的选项卡,可以查看差别时间段的监控,默认情况下,设置为七天。


下面设置为三十天


4.3.设置自动化规则


LangSmith 提供了一项自动化记录功能,可让触发跟踪数据的某些操纵。
4.3.1.导航至规则创建


4.3.2.界说过滤器

创建一个过滤器来过滤项目中的记录。


4.3.3.界说采样率

为自动化指定一个采样率(介于 0 和 1 之间),用于控制发送到自动化操纵的记录的百分比。例如,将采样率设置为 0.5,则通过过滤器的 50% 的记录将被发送到该操纵。


4.3.4.界说动作



  • Add to dataset: Add the inputs and outputs of the trace to a dataset.
  • Add to annotation queue: Add the trace to an annotation queue.
  • Run online evaluation: Run an online evaluation on the trace. 
  • Trigger webhook: Trigger a webhook with the trace data. 

4.3.5.查看自动化日志

未调用步伐,自动化日志为空


调用步伐,让模型进行推理:我家在北京,请推荐一下特色景点?



五、附带说明

5.1.测试代码

  1. # -*-  coding = utf-8 -*-
  2. import os
  3. from langsmith import traceable
  4. from langsmith.run_helpers import get_current_run_tree
  5. from langsmith import run_trees
  6. from openai import Client
  7. os.environ["OPENAI_API_KEY"] = 'sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'
  8. os.environ['LANGCHAIN_TRACING_V2'] = 'true'
  9. os.environ['LANGCHAIN_API_KEY'] = 'lsv2_pt_xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'
  10. key = 'test_key'
  11. def feedback(run_id,key,value):
  12.     from langsmith import Client
  13.     client = Client()
  14.     client.create_feedback(
  15.         run_id,
  16.         key=key,
  17.         value=value,
  18.         score=1.0,
  19.         comment="comment",
  20.     )
  21. if __name__ == '__main__':
  22.     @traceable
  23.     def format_prompt(system_prompt,prompt,value="format_prompt"):
  24.         run = get_current_run_tree()
  25.         run_id = run.id
  26.         feedback(run_id, key,value)
  27.         return [
  28.             {
  29.                 "role": "system",
  30.                 "content": system_prompt,
  31.             },
  32.             {
  33.                 "role": "user",
  34.                 "content": prompt
  35.             }
  36.         ]
  37.     @traceable(run_type="llm")
  38.     def invoke_llm(messages,value="invoke_llm"):
  39.         run = get_current_run_tree()
  40.         run_id = run.id
  41.         feedback(run_id, key,value)
  42.         openai = Client()
  43.         return openai.chat.completions.create(
  44.             messages=messages, model="gpt-3.5-turbo", temperature=0
  45.         )
  46.     @traceable
  47.     def parse_output(response,value="parse_output"):
  48.         run = get_current_run_tree()
  49.         run_id = run.id
  50.         feedback(run_id, key,value)
  51.         return response.choices[0].message.content
  52.     @traceable
  53.     def run_pipeline(system_prompt,prompt,value='run_pipeline'):
  54.         run:run_trees.RunTree = get_current_run_tree()
  55.         run_id = run.id
  56.         feedback(run_id, key,value)
  57.         # 格式化prompt
  58.         messages = format_prompt(system_prompt,prompt)
  59.         # 调用GPT进行推理
  60.         response = invoke_llm(messages)
  61.         # 解析输出
  62.         result = parse_output(response)
  63.         return result
  64.     system_prompt = "你是一位专业的导游,对历史文化、自然地理、艺术风光等方面都有丰富的知识积累。"
  65.     prompt = "我家在北京,请推荐一下特色景点?"
  66.     result = run_pipeline(system_prompt,prompt)
  67.     print(result)
复制代码


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

傲渊山岳

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表