本文紧张介绍如何通过ollama快速部署deepseek、qwq、llama3、gemma3等大模型,网速好的小同伴10分钟就能搞定。让你摆脱GPU焦虑,在普通电脑上面玩转大模型。
安装指南(无废话版)
第一步:安装ollama
我们可以从官网下载ollama,此步骤支持windows、mac、ubuntu操作系统,此处仅以windows作为演示。
打开ollama官网:https://ollama.com 点击download按钮进行下载,下载完成后点击安装。
安装完成后,你的电脑右下角会有ollama的图标(如果没有看到,可以展开折叠的状态栏检查)
验证安装是否成功:打开下令行(WIN+R,在运行中输入cmd后回车),输入ollama --version,如果下令实行成功,并输出了版本信息,说明安装成功了。
第二步:下载deepseek
打开下令行(WIN+R,在运行中输入cmd后回车),下载并运行deepseek-r1 1.5b蒸馏版。- ollama run deepseek-r1:1.5b
复制代码
下载完成后,ollama会为我们运行刚下载的大模型。下面是我运行成功的截图:
第三步:利用大模型
恭喜你已经在本地成功安装了第一个私有大模型。运行成功以后,我们可以直接在下令行和deepseek对话。
如你所见,这就是一个简单的对话窗口,也是大模型最原始的形态。
在本系列的后面章节中,我们会介绍如何利用工具来和大模型进行交互,构建专属于你的、数据安全的、私有可定制的AI工具集。
关注[拓荒者IT]公众号,获取最新内容,文末有福利。
内容讲解(干货)
ollama是什么?
Ollama 是一款开源工具,能让你在个人电脑上本地运行各种大语言模型(如 DeepSeek、QwQ等)。
简单说,它像是一个“离线版DeepSeek”,无需联网就能用AI谈天、写代码或处理文档。
下载模型后,电脑断网也能用,数据隐私更有保障。支持下令行操作,开发者能快速测试模型效果,或集成到自己的项目中。
适合技术爱好者、想保护隐私的用户,或必要定制AI功能的人。开源免费,对硬件要求不高,普通电脑也能跑小模型。
ollama常用的指令
下令描述ollama serve启动 Ollamaollama create从 Modelfile 创建模型ollama show显示模型信息ollama run运行模型ollama stop停止正在运行的模型ollama pull从注册表中拉取模型ollama push将模型推送到注册表ollama list列出所有模型ollama ps列出正在运行的模型ollama cp复制模型ollama rm删除模型ollama help显示任意下令的资助信息标志描述-h, --help显示 Ollama 的资助信息-v, --version显示版本信息获取更多模型
在ollama官网,有非常多的开源模型供我们选择,地点:https://ollama.com/search
在模型列表中,我们点击deepseek-r1,打开页面如下:
选择自己电脑适配的模型巨细,然后复制右侧的启动下令,在下令行实行即可。
总结
本文介绍了如何利用ollama本地部署DeepSeek等大模型,通过干货分享了ollama常用的指令,以及如何获取更多大模型。
但是我们如今仍然只是在下令行利用大模型,非常的不友好。下一章我们将介绍如何摆脱下令行的束缚,将ollama集成到本地的AI工具中,实现谈天、自定义智能体等功能。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |