开源模型应用落地-LangChain高阶-集成vllm-QWen1.5-OpenAI-Compatible Serv ...

打印 上一主题 下一主题

主题 870|帖子 870|积分 2610

一、前言

     通过langchain框架调用当地模型,使得用户可以直接提出题目或发送指令,而无需担心具体的步调或流程。vLLM可以摆设为类似于OpenAI API协议的服务器,允许用户使用OpenAI API举行模型推理。
     相干文章:
     开源模型应用落地-LangChain试炼-CPU调用QWen1.5(一)
     开源模型应用落地-LangChain高阶-GPU调用QWen1.5(二)
     开源模型应用落地-LangChain高阶-集成vllm-QWen1.5(一)
     

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

天津储鑫盛钢材现货供应商

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表