小秦哥 发表于 2025-3-27 23:46:58

最简朴方法当地部署deepseek及其他大模子(如Llama、千问等),有手就行

总结:

1.必要看根据电脑显存的巨细而选择合适的模子的巨细:
      如DeepSeek-R1   7B   4.7GB   ollama run deepseek-r1 2.运行步调(很简朴,但是效果随模子巨细而不同):先安装Ollama,再使用ollama run 模子名(如deepseek-r1)即可自动下载模子并运行。

具体步调:

1.安装Ollama

本人电脑系统版本:window11
https://ollama.com/download
根据你的操作系统选择安装方式:

https://i-blog.csdnimg.cn/img_convert/33947d13b1ac737cf533337160b8f753.png

macOS
# 方式1:直接下载安装 访问 https://ollama.ai/download 下载macOS安装包,双击安装。
# 方式2:Homebrew安装 brew install ollama
Linux
curl -fsSL https://ollama.ai/install.sh | sh
Windows<

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 最简朴方法当地部署deepseek及其他大模子(如Llama、千问等),有手就行