AI大模子包含哪些些技术?

打印 上一主题 下一主题

主题 1655|帖子 1655|积分 4967

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
Prompt

Prompt提示是模子吸收以天生响应或完成使命的初始文本输入。
我们给AI一组Prompt输入,用于指导模子天生响应以实行使命。这个输入可以是一个问题、一段描述、一组关键词,或任何其他形式的文本,用于引导模子产生特定内容的响应。

Transformer

Transformer是一种用于天然语言处理(NLP)和其他序列到序列(sequence-to-sequence)使命的深度学习模子架构,它在2017年由Vaswani等人初次提出。
Transformer架构引入了自留意力机制(self-attention mechanism),这是一个关键的创新,使其在处理序列数据时表现出色。

预练习

预练习(Pre-training)通常是指对模子举行无监视或自监视学习的过程,在大规模未标注数据上先练习模子,以便为后续使命提供一个高质量的初始权重。这个过程对于很多复杂模子尤其是 transformer 架构(比如BERT、GPT系列等)来说极其告急。

Function Calling

Function Calling是一个允许大型语言模子(如 GPT)在天生文本的过程中调用外部函数或服务的功能。
Function Calling允许我们以 JSON 格式向 LLM 模子描述函数,并使用模子的固有推理能力来决定在天生响应之前是否调用该函数。模子自己不实行函数,而是天生包含函数名称和实行函数所需的参数的JSON。

Rag

RAG(中文为检索增强天生)= 检索技术 + LLM 提示。
例如,我们向 LLM 提问一个问题(answer),RAG 从各种数据源检索相关的信息,并将检索到的信息和问题(answer)注入到 LLM 提示中,LLM 末了给出答案。

GPTs

GPTs其实就是一个模板,把你的需求告诉GPTs,它会按照你的想法去天生新的ChatGPT,相当于把你的想法写成了一个模板,供你个性化使用。
每次使用的时间直接输入你的话题或者部分内容,这时间的ChatGPT就会按照你设定的使用规则跟你对话,直接输出你需要的内容,而不需要你每次都输入肯定的提示指令去引导。

LangChain

LangChain 就是一个 LLM 编程框架,你想开发一个基于 LLM 应用,需要什么组件它都有,直接使用就行;甚至针对通例的应用流程,它使用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。

Agent

智能体的英文是 Agent,AI业界对智能体提出了各种界说。
个人理解,智能体是一种通用问题解决器。从软件工程的角度看来,智能体是一种基于大语言模子的,具备规划思索能力、记忆能力、使用工具函数的能力,能自主完成给定使命的计算机程序。

Fine-tuning

微调是指在预练习模子(Pre-trained model)的底子上,针对特定使命或数据领域,对部分或全部模子参数举行进一步的练习和调整(Fine Tune)。
预练习模子通常是在大规模数据集上练习得到的,具有肯定的通用性和泛化能力。微调的目的是在较小的目的数据集上,通过有限的练习数据,使模子更好地适应特定使命,从而进步模子在该使命上的性能。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

拉不拉稀肚拉稀

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表