这篇文章主要分享两方面内容:
1)在纯内网环境下如何部署ollama
2)在纯内网环境下如何配置大模子
话不多说直接开始。
①离线部署ollama
一、通过欣赏器访问ollama官方安装脚本,获取脚本内容。复制里面的内容。
在Linux中执行vi install.sh,将复制的内容粘贴进去。
https://ollama.com/install.shhttps://ollama.com/install.sh
二、修改install.sh安装脚本,下面是完整的脚本,也可以忽略第一步直接复制这里的内容写入install.sh。这里主要改动的地方是联网获取ollama的部分为从本地获取。
三、下载ollama安装包
下载地址:https://github.com/ollama/ollama/releases/下载对应的包
详细需要什么型号的可通过 lscpu 下令 查看自己的cpu架构
- x86_64 CPU 选择下载 ollama-linux-amd64.tgz aarch64
- arm64 CPU 选择下载 ollama-linux-arm64.tgz
复制代码
四、运行install.sh脚本举行安装
- 进入install.sh所在目录
- chmod +x install.sh #给脚本赋予执行权限
- ./install.sh
- # 如果报错误: bash: ./build_android.sh:/bin/sh^M:解释器错误: 没有那个文件或目录,执行
- sed -i 's/\r$//' install.sh
复制代码 ②离线安装大模子
因为我们的服务器是完全内网环境,以是即便安装ollama后也无法下载大模子,因此需要我们手动将模子放到ollama可以识别的地方。
默认情况下ollama模子的地点路径为:
- macOS: ~/.ollama/models
- Linux: **/usr/share/ollama/.ollama/models**
- Windows: C:Users<username>.ollamamodels
复制代码 自己在服务器上创建一个路径,打开ollama配置文件/etc/systemd/system/ollama.service
在里面加入你新创建的路径
接下来,找一个可以上网的主机,执行ollama run ***,当大模子下载完成后,找到models目录,将整个目录拷贝到服务器你新创建的路径下。
重启ollama,之后再执行ollama list下令,假如看到有模子了,证明搞定。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |