ToB企服应用市场:ToB评测及商务社交产业平台
标题:
LLM(大语言模子)、Chat 大模子和 Embedding 大模子
[打印本页]
作者:
嚴華
时间:
昨天 19:21
标题:
LLM(大语言模子)、Chat 大模子和 Embedding 大模子
LLM(大语言模子)、Chat 大模子和 Embedding 大模子是当前人工智能领域中常见的三种模子范例,它们在功能、用途和技术特点上存在显著差异。
LLM
是通用的语言生成工具,得当各种文本处置惩罚任务。
Chat 模子
是专门为对话场景优化的 LLM,更得当人机交互。
Embedding 模子
提供了语义表现的能力,是许多检索和分析任务的核心组件。
根据具体的应用需求,可以选择单一模子或组合使用这三种模子,以实现最佳结果。
在实际应用中,这三种模子往往相互配合,形成更强大的体系。例如:
RAG 体系
:
使用 Embedding 模子检索相干文档。
将检索结果传递给 LLM 或 Chat 模子生成终极答案。
对话体系
:
Chat 模子负责生成对话回复。
Embedding 模子可以用于理解用户意图或检索相干配景知识。
内容创作
:
LLM 生成初步内容。
Embedding 模子评估生成内容的质量或相干性。
# 导入必要的库
from dotenv import load_dotenv # 用于加载环境变量
import os # 用于操作文件路径
# 获取当前文件所在的目录
current_dir = os.path.dirname(__file__)
# 构建到 conf/.qwen 的相对路径
# 这里通过 os.path.join 拼接路径,确保跨平台兼容性
conf_file_path_qwen = os.path.join(current_dir, '..', 'conf', '.qwen')
# 加载 .qwen 文件中的环境变量
# dotenv_path 参数指定了环境变量文件的路径
load_dotenv(dotenv_path=conf_file_path_qwen)
def get_qwen_models():
"""
加载通义千问系列的大模型,包括 LLM、Chat 和 Embedding 模型。
"""
# 加载 LLM 大模型(语言生成模型)
# 使用 Tongyi 类来实例化一个通义千问模型
from langchain_community.llms.tongyi import Tongyi
llm = Tongyi(
model="qwen-max", # 指定模型类型为 qwen-max,适合复杂任务
temperature=0.1, # 控制输出的随机性,值越低越保守
top_p=0.7, # 核采样参数,控制生成文本的多样性
max_tokens=1024 # 最大生成的 token 数量
)
# 加载 Chat 大模型(对话模型)
# 使用 ChatTongyi 类来实例化一个通义千问对话模型
from langchain_community.chat_models import ChatTongyi
chat = ChatTongyi(
model="qwen-max", # 指定模型类型为 qwen-max,适合高质量对话
temperature=0.01, # 温度更低以获得更确定的回复
top_p=0.2, # 控制对话生成的多样性
max_tokens=1024 # 最大生成的 token 数量
)
# 加载 Embedding 大模型(嵌入模型)
# 使用 DashScopeEmbeddings 类来实例化一个通义千问嵌入模型
from langchain_community.embeddings import DashScopeEmbeddings
embed = DashScopeEmbeddings(
model="text-embedding-v3" # 指定嵌入模型版本
)
# 返回加载的三个模型
return llm, chat, embed
复制代码
1. LLM(大语言模子)
定义
LLM 是一种大规模的语言生成模子,通常基于 Transformer 架构,经过大量文本数据的练习,可以大概理解天然语言并生成高质量的文本。
特点
广泛的知识
:通过海量文本数据练习,具备丰富的知识库。
多任务能力
:可以完成多种任务,如文本生成、翻译、摘要、问答等。
上下文学习
:支持零样本(zero-shot)、少样本(few-shot)和微调(fine-tuning)学习。
用途
文本生成
:撰写文章、故事、邮件、代码等。
对话体系
:提供智能客服、聊天机器人等。
内容创作
:辅助写作、创意生成。
信息提取与分析
:从文本中提取关键信息或生成总结。
科学研究
:生成假设、论文草稿等。
示例
OpenAI 的 GPT 系列(GPT-3、GPT-4)
Alibaba Cloud 的 Qwen(通义千问)
Google 的 PaLM 系列
2. Chat 大模子
定义
Chat 大模子是一种专门用于对话场景的大语言模子,通常是在通用 LLM 的基础上进一步优化,以适应对话交互的需求。
特点
对话优化
:经过对话数据的额外练习,可以大概更好地理解和生成对话内容。
上下文记忆
:可以大概记着对话汗青,保持对话连贯性。
多轮交互
:支持多轮对话,逐步深入地理解用户意图。
个性化
:可以根据用户需求调整语气、风格等。
用途
智能客服
:为企业提供高效的客户服务。
虚拟助手
:如个人助理、智能家居控制。
教诲辅导
:为学生提供实时答疑和学习指导。
娱乐互动
:如脚色扮演、游戏 NPC 对话。
示例
Qwen-Max、Qwen-Plus(通义千问系列中的对话优化版本)
Meta 的 Llama 2 Chat
Microsoft 的 Tay、Zo
3. Embedding 大模子
定义
Embedding 大模子是一种将文本、图像或其他数据转换为固定长度向量表现的模子,重要用于语义相似度计算和检索任务。
特点
高效表现
:将复杂的数据结构映射到低维空间,保留语义信息。
快速检索
:支持基于向量的相似性搜索,实用于大规模数据集。
无生成能力
:不直接生成文本,但可以作为其他任务的基础组件。
用途
语义搜索
:根据查询找到最相干的文档或段落。
推荐体系
:计算用户兴趣与内容的相似度。
聚类分析
:对文本或数据进行分组。
非常检测
:辨认与正常数据不同的非常点。
RAG(检索加强生成)
:结合 LLM 和 Embedding 模子,实现基于知识库的问答。
示例
OpenAI 的 text-embedding-ada-002
Alibaba Cloud 的 Qwen-VL(多模态嵌入模子)
Hugging Face 的 sentence-transformers 系列
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/)
Powered by Discuz! X3.4