LangChain 工程架构剖析

打印 上一主题 下一主题

主题 746|帖子 746|积分 2238

LangChain是什么

LangChain 是一个基于开源大语言模子的 AI 工程开辟框架,旨在使研究人员和开辟人员能够更轻松地构建、实验和部署以自然语言处置惩罚(NLP)为中心的应用程序。它提供了多种组件和工具,可帮助用户利用最近的语言模子希望,如大型 Transformer 模子等,并且可以与 Hugging Face 等平台集成。LangChain 的焦点理念是将语言模子用作协作工具,通过它,开辟者可以构建出处置惩罚复杂使命的系统,并且可以高效地对接不同的数据源和应用程序接口(APIs)。
技能架构


如图,从下至上分别是:


  • LangChain 库:Python 和 JavaScript 库,包含接口和集成,用于各种组件的组合,以及现成的链和代理的实现。
  • LangChain 模板:易于部署的各种使命的参考架构集合。
  • LangServe:将 LangChain 链部署为 REST API 的库。
  • LangSmith:开辟平台,可用于调试、测试、评估和监控基于任何 LLM 框架构建的链,并与 LangChain 无缝集成。
LangChain 库

LangChain 的焦点组件和本领(六大焦点抽象,用于构建复杂的AI应用,同时保持了良好的扩展本领。)


  • Models(模子):
    Chat Models(聊天模子): LangChain 提供了一个尺度接口,支持聊天模子。这些模子是语言模子的变体,其接口基于消息而不是原始文本。您可以使用不同类型的消息(如 AIMessage、HumanMessage、SystemMessage 和 ChatMessage)与聊天模子举行交互。
    Embeddings(嵌入): 帮助将文本转换为向量表示,以便在应用程序中举行处置惩罚。
    LLMs(大型语言模子): LangChain 支持大型语言模子,比方 ChatGPT,用于各种自然语言处置惩罚使命。
  • Prompts(提示):
    Prompt Templates(提示模板): 提供易于部署的参考架构,适用于不同使命。
  • Indexes(索引):
    Vector Databases(向量数据库): 用于存储和检索向量表示,比方文本嵌入。
    Interaction Layer Prompts(交互层提示): 用于构建用户与模子之间的交互。
  • Memory(记忆):
    External Knowledge(外部知识): 整合外部知识源,丰富模子的知识库。
    External Tools(外部工具): 与外部环境举行交互,比方通过 API 哀求执行利用。
  • Chains(链):
    LangChain提供了LCEL(LangChain Expression Language)声明式编程语言,将不同组件组合起来办理特定使命,比方在大量文本中查找信息。
  • Agents(代理):
    使得 LLMs 能够与外部环境举行交互,比方通过 API 哀求执行利用。
总之,LangChain 是一个强盛的工具箱,不仅涵盖了基础工具,还为个性化需求提供了自定义组件办理方案。它使开辟者能够更专注于创新和优化产物功能,从原型到生产环境的转化变得更加高效。
使用例子

最原始的RESTful API -> LangChain-OpenAI SDK

  1. python
  2. 复制代码
  3. import os
  4. import requests
  5. # API Key
  6. api_key = os.getenv('OPENAI_API_KEY')
  7. # 头部信息
  8. headers = {
  9.     'Content-Type': 'application/json',
  10.     'Authorization': f'Bearer {api_key}'
  11. }
  12. # 准备数据
  13. data = {
  14.     'model': 'gpt-4',
  15.     'messages': [{'role': 'user', 'content': '什么是图计算?'}],
  16.     'temperature': 0.7
  17. }
  18. # 调用API
  19. url = 'https://api.openai.com/v1/chat/completions'
  20. response = requests.post(url, json=data, headers=headers)
  21. answer = response.json()['choices'][0]['message']['content']
  22. print(answer)
复制代码
  1. ini
  2. 复制代码
  3. from langchain_openai import ChatOpenAI
  4. # 调用Chat Completion API
  5. llm = ChatOpenAI(model_name='gpt-4')
  6. response = llm.invoke('什么是图计算?')
  7. print(response)
复制代码
IO抽象


对于文本天生模子服务来说,现实的输入和输出本质上都是字符串,因此直接裸调用LLM服务带来的问题是要在输入格式化和输出效果剖析上做大量的重复的文本处置惩罚工作。LangChain当然考虑到这一点,提供了Prompt和OutputParser抽象,用户可以根据自己的必要选择具体的实现类型使用。
  1. ini
  2. 复制代码
  3. from langchain_openai import ChatOpenAI
  4. # 调用Chat Completion API
  5. llm = ChatOpenAI(model_name='gpt-4')
  6. response = llm.invoke('什么是图计算?')
  7. print(response)
复制代码
  1. ini
  2. 复制代码
  3. from langchain_core.output_parsers import StrOutputParser
  4. from langchain_core.prompts import ChatPromptTemplate
  5. from langchain_openai import ChatOpenAI
  6. # 创建LLM
  7. llm = ChatOpenAI(model_name='gpt-4')
  8. # 创建Prompt
  9. prompt = ChatPromptTemplate.from_template("{question}")
  10. # 创建输出解析器
  11. output_parser = StrOutputParser()
  12. # 调用LLM
  13. message = prompt.invoke({'question': '什么是图计算?'})
  14. response = llm.invoke(message)
  15. answer = output_parser.invoke(response)
  16. print(answer)
复制代码
组装成链

1.LCEL
LangChain的表达式语言(LCEL)通过重载__or__运算符的思路,构建了雷同Unix管道运算符的设计,实现更简洁的LLM调用形式。
  1. ini
  2. 复制代码
  3. from langchain_core.output_parsers import StrOutputParser
  4. from langchain_core.prompts import ChatPromptTemplate
  5. from langchain_openai import ChatOpenAI
  6. # 创建LLM
  7. llm = ChatOpenAI(model_name='gpt-4')
  8. # 创建Prompt
  9. prompt = ChatPromptTemplate.from_template("{question}")
  10. # 创建输出解析器
  11. output_parser = StrOutputParser()
  12. # 调用LLM
  13. message = prompt.invoke({'question': '什么是图计算?'})
  14. response = llm.invoke(message)
  15. answer = output_parser.invoke(response)
  16. print(answer)
复制代码
  1. ini
  2. 复制代码
  3. # 创建Chain
  4. chain = prompt | llm | output_parser
  5. # 调用Chain
  6. answer = chain.invoke({'question': '什么是图计算?'})
  7. print(answer)
复制代码
2.RunnablePassthrough
为了简化Chain的参数调用格式,也可以借助RunnablePassthrough透传上游参数输入。
  1. ini
  2. 复制代码
  3. from langchain_core.runnables import RunnablePassthrough
  4. # 创建Chain
  5. chain = {"question": RunnablePassthrough()} | prompt | llm | output_parser
  6. # 调用Chain
  7. answer = chain.invoke('什么是图计算?')
  8. print(answer)
复制代码
3.DAG
代码示例输出:苹果是一种营养丰富的水果,具有帮助消化、保护心脏、低沉糖尿病风险、强化免疫系统、帮助减肥、保护视力、防备哮喘、抗癌和提升记忆力等多种好处。然而,过度食用大概不适当的食用方式也可能带来一些倒霉影响,如引发过敏、导致腹泻、对牙齿造成伤害、可能携带农药残留、影响正常饮食和钙质吸收、增加蛀牙风险和引发胃痛等。因此,我们在享受苹果带来的好处的同时,也必要注意适量和正确的食用方式。
  1. ini
  2. 复制代码
  3. from operator import itemgetter
  4. from langchain_core.output_parsers import StrOutputParser
  5. from langchain_core.prompts import ChatPromptTemplate
  6. from langchain_core.runnables import RunnablePassthrough
  7. from langchain_openai import ChatOpenAI
  8. # 创建LLM
  9. llm = ChatOpenAI(model_name='gpt-4')
  10. # 创建输出解析器
  11. output_parser = StrOutputParser()
  12. # 创建Prompt
  13. topic_prompt = ChatPromptTemplate.from_template("生成一种'{input}'的名称")
  14. good_prompt = ChatPromptTemplate.from_template("列举{topic}的好处:")
  15. bad_prompt = ChatPromptTemplate.from_template("列举{topic}的坏处:")
  16. summary_prompt = ChatPromptTemplate.from_messages(
  17.     [
  18.         ("ai", "{topic}"),
  19.         ("human", "好处:\n{good}\n\n坏处:\n{bad}"),
  20.         ("system", "生成最终结论"),
  21.     ]
  22. )
  23. # 创建组合Chain
  24. topic_chain = topic_prompt | llm | output_parser | {"topic": RunnablePassthrough()}
  25. goods_chain = good_prompt | llm | output_parser
  26. bads_chain = bad_prompt | llm | output_parser
  27. summary_chain = summary_prompt | llm | output_parser
  28. chain = (
  29.     topic_chain
  30.     | {
  31.         "good": goods_chain,
  32.         "bad": bads_chain,
  33.         "topic": itemgetter("topic"),
  34.     }
  35.     | summary_chain
  36. )
  37. # 调用chain
  38. answer = chain.invoke({"input": '常见水果'})
  39. print(answer)
复制代码
4.LangSmith

5.LangGraph
基于LCEL确实能形貌比力复杂的LangChain计算图布局,但依然有DAG自然的设计限制,即不能支持“循环”。于是LangChain社区推出了一个新的项目——LangGraph,期望基于LangChain构建支持循环和跨多链的计算图布局,以形貌更复杂的,乃至具备自动化属性的AI工程应用逻辑,比如智能体应用。其具体使用方式可以参考LangGraph文档。
  1. python
  2. 复制代码
  3. from langchain_openai import ChatOpenAI
  4. from langchain_core.messages import HumanMessage
  5. from langgraph.graph import END, MessageGraph
  6. # 初始化聊天模型
  7. model = ChatOpenAI(temperature=0)
  8. # 创建一个 MessageGraph
  9. graph = MessageGraph()
  10. # 添加一个名为 "oracle" 的节点,它执行聊天模型并返回结果
  11. graph.add_node("oracle", model)
  12. graph.add_edge("oracle", END)
  13. graph.set_entry_point("oracle")
  14. # 编译图
  15. runnable = graph.compile()
  16. # 运行图
  17. result = runnable.invoke(HumanMessage("What is 1 + 1?"))
  18. print(result)  # 输出聊天模型的回答
复制代码
Memory(记忆)

通过Chain,LangChain相当于以“工作流”的形式,将LLM与IO组件举行了有秩序的连接,从而具备构建复杂AI工程流程的本领。而我们都知道LLM提供的文本天生服务自己不提供记忆功能,必要用户自己管理对话历史。因此引入Memory组件,可以很好地扩展AI工程的本领边界。

RAG(检索增强)

拥有记忆后,确实扩展了AI工程的应用场景。但是在专有领域,LLM无法学习到所有的专业知识细节,因此在面向专业领域知识的提问时,无法给出可靠准确的回答,乃至会“胡言乱语”,这种征象称之为LLM的“幻觉”。检索增强天生(RAG)把信息检索技能和大模子结合起来,将检索出来的文档和提示词一起提供给大模子服务,从而天生更可靠的答案,有效的缓解大模子推理的“幻觉”问题。

相比提示词工程,RAG有更丰富的上下文和数据样本,可以不必要用户提供过多的背景形貌,即能天生比力符适用户预期的答案。相比于模子微调,RAG可以提升问答内容的时效性和可靠性,同时在一定水平上保护了业务数据的隐私性。
但由于每次问答都涉及外部系统数据检索,因此RAG的响应时延相对较高。别的,引用的外部知识数据会斲丧大量的模子Token资源。因此,用户必要结合自身的现实应用场景做符合的技能选型。
  1. python
  2. 复制代码
  3. from langchain.text_splitter import RecursiveCharacterTextSplitter
  4. from langchain_community.vectorstores.faiss import FAISS
  5. from langchain_core.documents import Document
  6. from langchain_core.output_parsers import StrOutputParser
  7. from langchain_core.prompts import ChatPromptTemplate
  8. from langchain_core.runnables import RunnablePassthrough
  9. from langchain_openai import OpenAIEmbeddings, ChatOpenAI
  10. # 创建LLM
  11. llm = ChatOpenAI(model_name='gpt-4')
  12. # 创建Prompt
  13. prompt = ChatPromptTemplate.from_template('基于上下文:{context}\n回答:{input}')
  14. # 创建输出解析器
  15. output_parser = StrOutputParser()
  16. # 模拟文档
  17. docs = [Document(page_content="TuGraph是蚂蚁开源的图数据库产品")]
  18. # 文档嵌入
  19. splits = RecursiveCharacterTextSplitter().split_documents(docs)
  20. vector_store = FAISS.from_documents(splits, OpenAIEmbeddings())
  21. retriever = vector_store.as_retriever()
  22. # 创建Chain
  23. chain_no_context = RunnablePassthrough() | llm | output_parser
  24. chain = (
  25.     {"context": retriever, "input": RunnablePassthrough()}
  26.     | prompt | llm | output_parser
  27. )
  28. # 调用Chain
  29. print(chain_no_context.invoke('蚂蚁图数据库开源了吗?'))
  30. print(chain.invoke('蚂蚁图数据库开源了吗?'))
复制代码

结合示例和向量数据库的存取过程,我们简单理解一下RAG中关键组件:


  • DocumentLoader:从外部系统检索文档数据。简单起见,示例中直接构造了测试文档对象。现实上LangChain提供了文档加载器BaseLoader的接口抽象和大量实现,具体可根据自身必要选择使用。
  • TextSplitter:将文档分割成块,以顺应大模子上下文窗口。示例中采用了常用的RecursiveCharacterTextSplitter,其他参考LangChain的TextSplitter接口和实现。
  • EmbeddingsModel:文本嵌入模子,提供将文本编码为向量的本领。文档写入和查询匹配前都会先执行文本嵌入编码。示例采用了OpenAI的文本嵌入模子服务,其他参考LangChain的Embeddings接口和实现。
  • VectorStore:向量存储,提供向量存储和相似性检索(ANN算法)本领。LangChain支持的向量存储参考VectorStore接口和实现。示例采用了Meta的Faiss向量数据库。
  • Retriever:向量存储的查询器。一般和VectorStore配套实现,通过as_retriever方法获取,LangChain提供的Retriever抽象接口是BaseRetriever。
Tool(插件)

“会使用工具”是人类和动物的根本区别。
要构建更强盛的AI工程应用,只有天生文本这样的“纸上谈兵”本领自然是不够的。工具不仅仅是“肢体”的延伸,更是为“大脑”插上了想象力的“翅膀”。借助工具,才气让AI应用的本领真正具备无穷的可能,才气从“认识天下”走向“改变天下”。
这里不得不提到OpenAI的Chat Completion API提供的函数调用本领(注意这里不是Assistant的函数调用),通过在对话哀求内附加tools参数形貌工具的定义格式(原先的functions参数已逾期),LLM会根据提示词推断出必要调用哪些工具,并提供具体的调用参数信息。用户必要根据返回的工具调用信息,自行触发相干工具的回调。下一章内容我们可以看到工具的调用动作可以通过Agent自主接受。

  1. python
  2. 复制代码
  3. from openai import OpenAI
  4. import json
  5. client = OpenAI()
  6. # Example dummy function hard coded to return the same weather
  7. # In production, this could be your backend API or an external API
  8. def get_current_weather(location, unit="fahrenheit"):
  9.     """Get the current weather in a given location"""
  10.     if "tokyo" in location.lower():
  11.         return json.dumps({"location": "Tokyo", "temperature": "10", "unit": unit})
  12.     elif "san francisco" in location.lower():
  13.         return json.dumps({"location": "San Francisco", "temperature": "72", "unit": unit})
  14.     elif "paris" in location.lower():
  15.         return json.dumps({"location": "Paris", "temperature": "22", "unit": unit})
  16.     else:
  17.         return json.dumps({"location": location, "temperature": "unknown"})
  18. def run_conversation():
  19.     # Step 1: send the conversation and available functions to the model
  20.     messages = [{"role": "user", "content": "What's the weather like in San Francisco, Tokyo, and Paris?"}]
  21.     tools = [
  22.         {
  23.             "type": "function",
  24.             "function": {
  25.                 "name": "get_current_weather",
  26.                 "description": "Get the current weather in a given location",
  27.                 "parameters": {
  28.                     "type": "object",
  29.                     "properties": {
  30.                         "location": {
  31.                             "type": "string",
  32.                             "description": "The city and state, e.g. San Francisco, CA",
  33.                         },
  34.                         "unit": {"type": "string", "enum": ["celsius", "fahrenheit"]},
  35.                     },
  36.                     "required": ["location"],
  37.                 },
  38.             },
  39.         }
  40.     ]
  41.     response = client.chat.completions.create(
  42.         model="gpt-3.5-turbo-0125",
  43.         messages=messages,
  44.         tools=tools,
  45.         tool_choice="auto",  # auto is default, but we'll be explicit
  46.     )
  47.     response_message = response.choices[0].message
  48.     tool_calls = response_message.tool_calls
  49.     # Step 2: check if the model wanted to call a function
  50.     if tool_calls:
  51.         # Step 3: call the function
  52.         # Note: the JSON response may not always be valid; be sure to handle errors
  53.         available_functions = {
  54.             "get_current_weather": get_current_weather,
  55.         }  # only one function in this example, but you can have multiple
  56.         messages.append(response_message)  # extend conversation with assistant's reply
  57.         # Step 4: send the info for each function call and function response to the model
  58.         for tool_call in tool_calls:
  59.             function_name = tool_call.function.name
  60.             function_to_call = available_functions[function_name]
  61.             function_args = json.loads(tool_call.function.arguments)
  62.             function_response = function_to_call(
  63.                 location=function_args.get("location"),
  64.                 unit=function_args.get("unit"),
  65.             )
  66.             messages.append(
  67.                 {
  68.                     "tool_call_id": tool_call.id,
  69.                     "role": "tool",
  70.                     "name": function_name,
  71.                     "content": function_response,
  72.                 }
  73.             )  # extend conversation with function response
  74.         second_response = client.chat.completions.create(
  75.             model="gpt-3.5-turbo-0125",
  76.             messages=messages,
  77.         )  # get a new response from the model where it can see the function response
  78.         return second_response
  79. print(run_conversation())
复制代码
  1. python
  2. 复制代码
  3. import random
  4. from langchain_core.output_parsers.openai_tools import JsonOutputToolsParser
  5. from langchain_core.runnables import RunnablePassthrough
  6. from langchain_core.tools import tool
  7. from langchain_openai import ChatOpenAI
  8. # 定义Tool
  9. @tool
  10. def get_temperature(city: str) -> int:
  11.     """获取指定城市的当前气温"""
  12.     return random.randint(-20, 50)
  13. # 创建LLM
  14. llm = ChatOpenAI(model_name='gpt-4')
  15. # 创建JSON输出解析器
  16. output_parser = JsonOutputToolsParser()
  17. # 创建Chain
  18. chain = (
  19.     RunnablePassthrough()
  20.     | llm.bind_tools(tools=[get_temperature])
  21.     | output_parser
  22. )
  23. # 调用Chain
  24. print(chain.invoke('杭州今天多少度?'))
复制代码
代码示例输出:
  1. css
  2. 复制代码
  3. [{'type': 'get_temperature', 'args': {'city': '杭州'}}]
复制代码
Agent(智能体)

Agent的焦点思想是使用大型语言模子(LLM)来选择要采取的行动序列。在Chain中行动序列是硬编码的,而Agent则采用语言模子作为推理引擎来确定以什么样的顺序采取什么样的行动。Agent相比Chain最典范的特点是“自治”,它可以通过借助LLM专长的推理本领,自动化地决策获取什么样的知识,采取什么样的行动,直到完成用户设定的终极目标。
因此,作为一个智能体,必要具备以下焦点本领:


  • 规划:借助于LLM强盛的推理本领,实现使命目标的规划拆解和自我反思。
  • 记忆:具备短期记忆(上下文)和恒久记忆(向量存储),以及快速的知识检索本领。
  • 行动:根据拆解的使命需求正确地调用工具以达到使命的目标。
  • 协作:通过与其他智能体交互互助,完成更复杂的使命目标。
  1. python
  2. 复制代码
  3. import random
  4. from langchain.agents import create_openai_tools_agent, \
  5.     AgentExecutor
  6. from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder, \
  7.     HumanMessagePromptTemplate, SystemMessagePromptTemplate
  8. from langchain_core.tools import tool
  9. from langchain_openai import ChatOpenAI
  10. # 创建LLM
  11. llm = ChatOpenAI()
  12. # 定义Tool
  13. @tool
  14. def get_temperature(city: str) -> int:
  15.     """获取指定城市的当前气温"""
  16.     return random.randint(-20, 50)
  17. # 创建Agent提示词模板
  18. prompt = ChatPromptTemplate.from_messages([
  19.     SystemMessagePromptTemplate.from_template('You are a helpful assistant'),
  20.     MessagesPlaceholder(variable_name='chat_history', optional=True),
  21.     HumanMessagePromptTemplate.from_template('{input}'),
  22.     MessagesPlaceholder(variable_name='agent_scratchpad')
  23. ])
  24. # 创建Agent
  25. tools = [get_temperature]
  26. agent = create_openai_tools_agent(llm, tools, prompt=prompt)
  27. # 执行Agent
  28. agent_executor = AgentExecutor(agent=agent, tools=tools, verbose=True)
  29. print(agent_executor.invoke({'input': '今天杭州多少度?'})['output'])
复制代码
如何学习大模子 AI ?

由于新岗位的生产服从,要优于被取代岗位的生产服从,所以现实上整个社会的生产服从是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比力晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的原理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和发展。
我意识到有很多履历和知识值得分享给各人,也可以通过我们的本领和履历解答各人在人工智能学习中的很多狐疑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋侪无法获得正确的资料得到学习提升,故此将并将紧张的AI大模子资料包罗AI大模子入门学习头脑导图、佳构AI大模子学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

惊落一身雪

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表