鼠扑 发表于 3 天前

LangChain 开发大全:基于大语言模子的下一代应用架构实战

LangChain 是一个强大的框架,可以简化构建高级语言模子应用程序的过程。随着大模子的热度不断攀升,LangChain也获得了越来越多的开发职员亲睐。
嗨,你好!让我向你介绍LangChain,这是一个非常棒的库,它能让开发者利用大型语言模子(LLMs)和其他盘算资源来构建强大的应用。在这份指南中,我将快速概述LangChain的工作原理,并探究一些很酷的使用案例,比方问答系统、谈天机器人和智能代理。我还会带你走过一个快速启动指南,帮助你开始使用。让我们开始吧!
前排提示,文末有大模子AGI-CSDN独家资料包哦!
What is LangChain?

LangChain是一个强大的框架,旨在帮助开发职员使用语言模子构建端到端的应用程序。它提供了一套工具、组件和接口,可简化创建由大型语言模子 (LLM) 和谈天模子提供支持的应用程序的过程。LangChain 可以轻松管理与语言模子的交互,将多个组件链接在一起,并集成额外的资源,比方 API 和数据库。
LangChain有许多焦点概念:
1. Components and Chains

在 LangChain 中,Component 是模块化的构建块,可以组合起来创建强大的应用程序。Chain 是组合在一起以完成特定任务的一系列 Components(或其他 Chain)。比方,一个 Chain 可能包括一个 Prompt 模板、一个语言模子和一个输出解析器,它们一起工作以处理用户输入、天生相应并处理输出。
2. Prompt Templates and Values

Prompt Template 负责创建 PromptValue,这是最终通报给语言模子的内容。Prompt Template 有助于将用户输入和其他动态信息转换为得当语言模子的格式。PromptValues 是具有方法的类,这些方法可以转换为每个模子范例期望的确切输入范例(如文本或谈天消息)。
3. Example Selectors

当您想要在 Prompts 中动态包罗示例时,Example Selectors 很有用。他们担当用户输入并返回一个示例列表以在提示中使用,使其更强大和特定于上下文。
4. Output Parsers

Output Parsers 负责将语言模子相应构建为更有用的格式。它们实现了两种主要方法:一种用于提供格式化指令,另一种用于将语言模子的相应解析为结构化格式。这使得在您的应用程序中处理输出数据变得更加容易。
5. Indexes and Retrievers

Index 是一种构造文档的方式,使语言模子更容易与它们交互。检索器是用于获取相干文档并将它们与语言模子组合的接口。LangChain 提供了用于处理差别范例的索引和检索器的工具和功能,比方矢量数据库和文本拆分器。
6. Chat Message History

LangChain 主要通过谈天界面与语言模子举行交互。ChatMessageHistory 类负责记住所有以前的谈天交互数据,然后可以将这些交互数据通报回模子、汇总或以其他方式组合。这有助于维护上下文并提高模子对对话的理解。
7. Agents and Toolkits

Agent 是在 LangChain 中推动决策制定的实体。他们可以访问一套工具,并可以根据用户输入决定调用哪个工具。Tookits 是一组工具,当它们一起使用时,可以完成特定的任务。代理执行器负责使用适当的工具运行代理。
通过理解和利用这些焦点概念,您可以利用 LangChain 的强大功能来构建适应性强、高效且能够处理复杂用例的高级语言模子应用程序。
What is a LangChain Agent?

LangChain Agent 是框架中驱动决策制定的实体。它可以访问一组工具,并可以根据用户的输入决定调用哪个工具。代理帮助构建复杂的应用程序,这些应用程序必要自适应和特定于上下文的相应。当存在取决于用户输入和其他因素的未知交互链时,它们特别有用。
如何使用 LangChain?

要使用 LangChain,开发职员首先要导入须要的组件和工具,比方 LLMs, chat models, agents, chains, 内存功能。这些组件组合起来创建一个可以理解、处理和相应用户输入的应用程序。
LangChain 为特定用例提供了多种组件,比方个人助理、文档问答、谈天机器人、查询表格数据、与 API 交互、提取、评估和汇总。
What’s a LangChain model?

LangChain model 是一种抽象,表示框架中使用的差别范例的模子。LangChain 中的模子主要分为三类:
1.LLM(大型语言模子) :这些模子将文本字符串作为输入并返回文本字符串作为输出。它们是许多语言模子应用程序的支柱。2.谈天模子( Chat Model) :谈天模子由语言模子支持,但具有更结构化的 API。他们将谈天消息列表作为输入并返回谈天消息。这使得管理对话汗青记录和维护上下文变得容易。3.文本嵌入模子(Text Embedding Models) :这些模子将文本作为输入并返回表示文本嵌入的浮点列表。这些嵌入可用于文档检索、聚类和相似性比力等任务。
开发职员可以为他们的用例选择合适的 LangChain 模子,并利用提供的组件来构建他们的应用程序。
LangChain 的主要特点

LangChain 旨在为六个主要领域的开发职员提供支持:
1.LLM 和提示:LangChain 使管理提示、优化它们以及为所有 LLM 创建通用界面变得容易。此外,它还包括一些用于处理 LLM 的便捷实用程序。2.链(Chain) :这些是对 LLM 或其他实用程序的调用序列。LangChain 为链提供标准接口,与各种工具集成,为流行应用提供端到端的链。3.数据加强天生:LangChain 使链能够与外部数据源交互以收集天生步骤的数据。比方,它可以帮助总结长文本或使用特定数据源回答问题。4.Agents:Agents 让 LLM 做出有关行动的决定,采取这些行动,检查结果,并继承前进直到工作完成。LangChain 提供了代理的标准接口,多种代理可供选择,以及端到端的代理示例。5.内存:LangChain 有一个标准的内存接口,有助于维护链或代理调用之间的状态。它还提供了一系列内存实现和使用内存的链或代理的示例。6.评估:很难用传统指标评估天生模子。这就是为什么 LangChain 提供提示和链来帮助开发者自己使用 LLM 评估他们的模子。
使用示例

LangChain 支持大量用例,比方:
•针对特定文档的问答:根据给定的文档回答问题,使用这些文档中的信息来创建答案。•谈天机器人:构建可以利用 LLM 的功能天生文本的谈天机器人。•Agents:开发可以决定行动、采取这些行动、观察结果并继承执行直到完成的代理。
快速入门指南:使用 LangChain 构建端到端语言模子应用程序

•安装 首先,安装 LangChain。只需运行以下下令:
代码语言:javascript
pip install langchain

•环境设置 现在,由于 LangChain 经常必要与模子提供者、数据存储、API 等集成,我们将设置我们的环境。在这个例子中,我们将使用 OpenAI 的 API,因此我们必要安装他们的 SDK:
代码语言:javascript
pip install openai

接下来,让我们在终端中设置环境变量:
代码语言:javascript
export OPENAI_API_KEY = "..."

大概,如果您更喜欢在 Jupyter notebook 或 Python 脚本中工作,您可以像这样设置环境变量:
代码语言:javascript
import os
os .environ[ "OPENAI_API_KEY" ] = "..."

•构建语言模子应用程序:LLM 安装好 LangChain 并设置好环境后,我们就可以开始构建我们的语言模子应用程序了。LangChain 提供了一堆模块,您可以使用它们来创建语言模子应用程序。您可以将这些模块组合起来用于更复杂的应用程序,大概将它们单独用于更简朴的应用程序。•构建语言模子应用程序:Chat Model 除了 LLM,您还可以使用谈天模子。这些是语言模子的变体,它们在底层使用语言模子但具有差别的界面。谈天模子使用谈天消息作为输入和输出,而不是“文本输入、文本输出”API。谈天模子 API 的使用还比力新,所以各人都还在寻找最佳抽象使用方式。要完成谈天,您必要将一条或多条消息通报给谈天模子。LangChain 目前支持 AIMessage、HumanMessage、SystemMessage 和 ChatMessage 范例。您将主要使用 HumanMessage、AIMessage 和 SystemMessage。 下面是使用谈天模子的示例:
代码语言:javascript
from langchain.chat_models import ChatOpenAI
from langchain.schema import (
    AIMessage,
    HumanMessage,
    SystemMessage
)

   chat = ChatOpenAI(temperature=0)
您可以通过通报一条消息来完成:
代码语言:javascript
chat()
# -> AIMessage(content="J'aime programmer.", additional_kwargs={})

大概通报多条消息给 OpenAI 的 gpt-3.5-turbo 和 gpt-4 models:
代码语言:javascript
messages = [
    SystemMessage(content="You are a helpful assistant that translates English to Chinese."),
    HumanMessage(content="Translate this sentence from English to Chinese. I love programming.")
]
chat(messages)
# -> AIMessage(content="我喜欢编程。(Wǒ xǐhuān biānchéng.)", additional_kwargs={})

您还可以使用 generate 为多组消息天生完成。这将返回一个带有附加消息参数的 LLMResult:
代码语言:javascript
batch_messages = [
    [
      SystemMessage(content="You are a helpful assistant that translates English to Chinese."),
      HumanMessage(content="Translate this sentence from English to Chinese. I love programming.")
    ],
    [
      SystemMessage(content="You are a helpful assistant that translates English to Chinese."),
      HumanMessage(content="Translate this sentence from English to Chinese. I love artificial intelligence.")
    ],
]
result = chat.generate(batch_messages)
result
# -> LLMResult(generations=[, ], llm_output={'token_usage': {'prompt_tokens': 71, 'completion_tokens': 18, 'total_tokens': 89}})

您还可以从 LLMResult 中提取 tokens 使用等信息:
代码语言:javascript
result.llm_output['token_usage']
# -> {'prompt_tokens': 71, 'completion_tokens': 18, 'total_tokens': 89}

对于谈天模子,您还可以通过使用 MessagePromptTemplate 来使用模板。您可以从一个或多个 MessagePromptTemplates 创建 ChatPromptTemplate。ChatPromptTemplate 的方法format_prompt返回一个 PromptValue,您可以将其转换为字符串或 Message 对象,具体取决于您是否要使用格式化值作为 LLM 或谈天模子的输入。
以下是一个例子:
代码语言:javascript
from langchain.chat_models import ChatOpenAI
from langchain.prompts.chat import (
    ChatPromptTemplate,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate,
)

代码语言:javascript
chat = ChatOpenAI(temperature=0)
template="You are a helpful assistant that translates {input_language} to {output_language}."
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template="{text}"
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
chat_prompt = ChatPromptTemplate.from_messages()
# get a chat completion from the formatted messages
chat(chat_prompt.format_prompt(input_language="English", output_language="Chinese", text="I love programming.").to_messages())
# -> AIMessage(content="我喜欢编程。(Wǒ xǐhuān biānchéng.)", additional_kwargs={})

您也可以将 LLMChain 与 Chat Model 一起使用:
代码语言:javascript
from langchain.chat_models import ChatOpenAI
from langchain import LLMChain
from langchain.prompts.chat import (
    ChatPromptTemplate,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate,
)

代码语言:javascript
chat = ChatOpenAI(temperature=0)
template="You are a helpful assistant that translates {input_language} to {output_language}."
system_message_prompt = SystemMessagePromptTemplate.from_template(template)
human_template="{text}"
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
chat_prompt = ChatPromptTemplate.from_messages()
chain = LLMChain(llm=chat, prompt=chat_prompt)
chain.run(input_language="English", output_language="Chinese", text="I love programming.")
# -> "我喜欢编程。(Wǒ xǐhuān biānchéng.)"

您还可以将代理与谈天模子一起使用。使用 AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION 作为代理范例初始化 Agent
代码语言:javascript
from langchain.agents import load_tools
from langchain.agents import initialize_agent
from langchain.agents import AgentType
from langchain.chat_models import ChatOpenAI
from langchain.llms import OpenAI

代码语言:javascript
# First, let's load the language model we're going to use to control the agent.
chat = ChatOpenAI(temperature=0)
# Next, let's load some tools to use. Note that the `llm-math` tool uses an LLM, so we need to pass that in.
llm = OpenAI(temperature=0)
tools = load_tools(["serpapi", "llm-math"], llm=llm)
# Finally, let's initialize an agent with the tools, the language model, and the type of agent we want to use.
agent = initialize_agent(tools, chat, agent=AgentType.CHAT_ZERO_SHOT_REACT_DESCRIPTION, verbose=True)
# Now let's test it out!
agent.run("Who is Olivia Wilde's boyfriend? What is his current age raised to the 0.23 power?")

在此示例中,代理将以交互的方式执行搜索和盘算以提供最终答案。
末了,让我们探索将内存与使用谈天模子初始化的链和代理一起使用。这与 Memory for LLMs 的主要区别在于我们可以将以前的消息保留为它们自己唯一的内存对象,而不是将它们压缩成一个字符串。
下面是使用 a 的示例ConversationChain:
代码语言:javascript
from langchain.prompts import (
    ChatPromptTemplate,
    MessagesPlaceholder,
    SystemMessagePromptTemplate,
    HumanMessagePromptTemplate
)
from langchain.chains import ConversationChain
from langchain.chat_models import ChatOpenAI
from langchain.memory import ConversationBufferMemory

代码语言:javascript
prompt = ChatPromptTemplate.from_messages([
    SystemMessagePromptTemplate.from_template("The following is a friendly conversation between a human and an AI. The AI is talkative and provides lots of specific details from its context. If the AI does not know the answer to a question, it truthfully says it does not know."),
    MessagesPlaceholder(variable_name="history"),
    HumanMessagePromptTemplate.from_template("{input}")
])
llm = ChatOpenAI(temperature=0)
memory = ConversationBufferMemory(return_messages=True)
conversation = ConversationChain(memory=memory, prompt=prompt, llm=llm)
conversation.predict(input="Hi there!")
# -> 'Hello! How can I assist you today?'
conversation.predict(input="I'm doing well! Just having a conversation with an AI.")
# -> "That sounds like fun! I'm happy to chat with you. Is there anything specific you'd like to talk about?"
conversation.predict(input="Tell me about yourself.")
# -> "Sure! I am an AI language model created by OpenAI. I was trained on a large dataset of text from the internet, which allows me to understand and generate human-like language. I can answer questions, provide information, and even have conversations like this one. Is there anything else you'd like to know about me?"

在此示例中,我们使用 aConversationChain来维护跨与 AI 的多次交互的对话上下文。
就是这样!现在您已经对如何使用 LangChain 构建端到端的语言模子应用有了深入的了解。通过遵循这些示例,您可以使用 LLM、谈天模子、代理、链和内存功能开发强大的语言模子应用程序。
结论

总之,LangChain 是一个强大的框架,它通过提供模块化和灵活的方法简化了构建高级语言模子应用程序的过程。通过了解组件、链、提示模板、输出解析器、索引、检索器、谈天消息汗青记录和代理等焦点概念,您可以创建得当您特定需求的自定义解决方案。LangChain 的适应性和易用性使其成为开发职员的宝贵工具,使他们能够释放语言模子的全部潜力,并在广泛的用例中创建智能的、上下文感知的应用程序。
读者福利:如果各人对大模子感兴趣,这套大模子学习资料肯定对你有用
对于0基础小白入门:
   如果你是零基础小白,想快速入门大模子是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更会合。
二方面是可以根据这些资料规划好学习计划和方向。
包括:大模子学习线路汇总、学习阶段,大模子实战案例,大模子学习视频,人工智能、机器学习、大模子册本PDF。带你从零基础系统性的学好大模子!
页: [1]
查看完整版本: LangChain 开发大全:基于大语言模子的下一代应用架构实战