一、大模型+工作流的优势
1. 降低使命门槛:工作流可以将复杂使命分解成多个小使命,降低每个使命的复杂度,从而减少对提示词和大模型推理本事的依赖。这样可以提拔大模型处理复杂使命的性能和容错本事。
2. 提拔使命服从:工作流可以实现主动化处理,减少重复劳动和纠正。只需提供必要元素,工作流就可以直接输出结果,提高服从和稳定性。
3. 提高使命的同等性:工作流可以确保使命的实行是同等的,减少人为错误和毛病,提高使命的可靠性和质量。
4. 实现使命的可重复性:工作流可以实现使命的可重复性,减少重复劳动和开辟时间,提高开辟服从和生产力。
二 安装ollama
1、安装ollama
下载ollama官方mac安装程序,下载后直接双击应用程序安装。
地址:Ollama
下载需要的大模型
三、安装摆设FastGPT
Docker Compose 快速摆设 | FastGPT
3.1 利用Docker情况摆设(请提前安装好docker)
在 Mac 上安装 Docker Desktop | Docker 文档
3.2 摆设fastgpt
3.3 启动并配置oneapi模型:
访问本地摆设好的oneapi:http://localhost:3001/channel
初始化的 用户名:root 密码:123456
3.4 配置Fastgpt
1、配置fastgpt的模型
进入最开始的fastgpt文件夹。找到config.json,配置llama3模型,位置和代码如下:
完成配置后需要重新启动dockerdesktop内里的oneapi和fastgpt。
2、访问fastgpt
地址:http://localhost:3000/login,默认用户名:root 密码:1234
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |