Ollama管理本地开源大模子,用Open WebUI访问Ollama接口

打印 上一主题 下一主题

主题 935|帖子 935|积分 2809

现在开源大模子一个接一个的,而且各个都说本身的性能非常厉害,但是对于我们这些使用者,用起来就比力尴尬了。因为一个模子一个调用的方式,先得下载模子,下完模子,写加载代码,麻烦得很。
对于程序的规范来说,只要东西一多,我们就需要一个集中管理的平台,如管理python 的pip,管理js库的npm等等,而这种平台是大家争着抢着想实现的,这就有了Ollama。
Ollama

Ollama 对于管理开源大模子是认真的,使用起来非常的简朴,先看下怎样使用:
github地点

linux 下的安装:
  1. curl -fsSL https://ollama.com/install.sh | sh
复制代码
等进度条跑完,如果不出不测的话,Ollama就已经安装乐成了。
用命令试一试,好比我们想用下Dolphin Phi:
  1. ollama run dolphin-phi
复制代码
提示如下:
  1. pulling manifest
  2. pulling 4eca7304a07a... 100% ▕███████████████████
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

东湖之滨

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表