冬雨财经 发表于 2025-2-17 06:20:06

DeepSeek R1 linux云部署

云平台:AutoDL
模型加载工具:Ollama
参考:https://github.com/ollama/ollama/blob/main/docs/linux.md
下载Ollama

服务器上下载ollama比较慢,因此我利用浏览器先下载到当地电脑上。
https://ollama.com/download/ollama-linux-amd64.tgz复制到浏览器进行下载
下载好以后,利用FileZilla等工具上传到云服务器上,这里我上传到autodl-tmp文件夹下。
打开一个terminal,解压下载的文件包:
tar -C /usr -xzf ollama-linux-amd64.tgz
启用ollama

ollama serve
再打开一个terminal,查抄一下ollama是否启用

ollama -v
这里可以看到ollama版本,阐明启用成功。
https://i-blog.csdnimg.cn/direct/e201823c589242d0848ac6e93db6a2dd.png
拉取模型

这里以deepseek-r1:32b为例进行拉取
ollama pull deepseek-r1:32b
https://i-blog.csdnimg.cn/direct/41530cec380a4eb5b96d3f76f20a16a5.png
下载过程中可能有掉速,Ctrl+C掉以后再重新ollama pull可以继承下载。
下载完成以后可以检察一下模型列表:
ollama list
https://i-blog.csdnimg.cn/direct/29412979ba2e464a8bdf67f073781aa8.png
运行模型:
ollama run deepseek-r1:32b
测试了一个很常见的,却有很多模型答错的问题:9.11和9.9比巨细
https://i-blog.csdnimg.cn/direct/46b24bd8c0aa406487c82d15e2bfb470.png
这个模型的链式推理很有人味儿,很有吸引力,这可能就是这个模型受很多人关注和歌颂的原因吧

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: DeepSeek R1 linux云部署