论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
人工智能
›
人工智能
›
【Llama】无需GPU轻松当地部署大模型
【Llama】无需GPU轻松当地部署大模型
大连全瓷种植牙齿制作中心
金牌会员
|
昨天 07:11
|
显示全部楼层
|
阅读模式
楼主
主题
845
|
帖子
845
|
积分
2550
在AI飞速发展的时代,大模型如雨后春笋拔地而起,部署大模型已不再是什么高科技操作了,只要你的电脑满足根本设置要求利用Ollama就可以轻松在当地部署模型。
利用Ollama,首先了解一下Ollama:
简介
Ollama 是一个开源的大型语言模型(LLM)服务工具,旨在简化在当地运行大语言模型的过程,降低利用门槛,使开发者、研究人员和爱好者能在当地快速实行、管理和部署最新大语言模型,如 Qwen2、Llama3、Phi3、Gemma2等。它提供了一个简洁易用的命令行界面和服务器,让你可以或许轻松下载、运行和管理各种开源 LLM。
Ollama的上风
开源免费:Ollama及所支持的模型均开源免费,可自由利用、修改和分发。
简单易用:无需复杂设置,通过几条命令即可快速启动运行。
模型丰富:涵盖Llama 3、Mistral、Qwen2等众多热门开源LLM,支持一键下载切换。
资源占用低:对硬件要求不高,平凡条记本电脑也能流畅运行。
社区活跃:拥有巨大活跃社区,便于获取资助、分享经验及参与模型开发。
Ollama的限定
按照官方的要求,电脑设置至少有 8 GB 可用内存来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。
怎样利用 Ollama?
只需遵循以下步骤即可开始利用Ollama:
安装Ollama:依据操作体系,访问Ollama官网下载并安装最新版。
启动Ollama:点击Ollama应用直接启动。
下载模型:前往模型堆栈,选中所需模型,用ollama pull下载,如ollama pull llama3:70b。
运行模型:利用ollama run启动模型,如ollama run llama3:70b。
开始聊天:在终端输入问题或指令,Ollama将依模型天生回复。
网络共享:在一台电脑部署模型,通过IP或服务形式共享给其他装备利用
官网
官网地址:ollama.com
进入官网看到这只可爱的羊驼那就对了。
文档
文档地址:github.com/ollama/olla…
官方文档托管在Github,打不开的实验利用科学方式
注册登录
只是下载及运行模型不注册也可以,如需账号可以利用邮箱注册登录
模型广场
模型地址:ollama.com/library
在Ollama首页点击【Models】可以查看Ollama支持的所有模型列表。
点击模型即可看到模型的详细信息,包含先容、安装方式等。
安装Ollama
安装包托管在Github,如果无法下载请科学上网
在Ollama官网首页点击【Download】,选择对应平台点击【Download for …】进行安装包下载
以Mac为例,下载完成后直接双击根据提示完成安装(安装过程很简单),点击 Move to Applications ,按照建议,将其移动到应用步伐文件夹下。Ollama默认会参加启动项,不需要的直接删除即可。
点击【Next】进行安装引导,Ollama需要插入 ollama 指令到命令行(后续直接在终端利用命令行操作),点击【Install】安装,输入电脑密码,点击【Finish】完成引导。
启动后看到状态栏中有Ollama模型表示启动成功,接下来就可以利用Ollama运行模型了
下载运行模型
官方建议:至少有 8 GB 可用内存来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。
在模型广场找到想要的模型,根据自己电脑设置选择满足条件的型号进行下载。
以 qwen2.5:14b 为例,在终端执行命令(如果当地没有对应模型,Ollama会先执行pull拉取,拉取完成后执行run运行)
$ ollama run qwen2.5:14b
复制代码
运行成功后效果如下:
Ollama常用命令行操作
查看资助
有任何命令行问题,都可以通过help命令查看资助
$ ollama --help
复制代码
举个例子,如想了解怎样运行一个模型,可以这样查看
$ ollama run --help
复制代码
最终得知 run 指令后面需要提供模型名称
$ ollama run 模型名称
如:
$ ollama run qwen2.5:1.5b
复制代码
命令行方式启动Ollama
$ ollama serve
复制代码
查看已下载模型
$ ollama list
或
$ ollama ls
复制代码
打印信息中 NAME 就是模型的名称
查看正在运行的模型
$ ollama ps
复制代码
查看模型详情
$ ollama show 模型名称
复制代码
运行模型
$ ollama run 模型名称
复制代码
停止模型
$ ollama stop 模型名称
复制代码
删除模型
$ ollama rm 模型名称
复制代码
根本利用
开始对话
模型启动后,在命令行直接输入提示词即可与模型进行对话。
在VSCode中利用
Continue插件设置相对简单一些
当地Ollama启动后默认端标语为 11434,在 Continue 插件中【API Provider】选择【Ollma】,【Base URL】默认为11434可以不填,输入模型名称 qwen2.5:14b,点击【Let’s go!】完成设置
利用Chat UI
如果以为上面方式都不适合你,也可以选择利用像ChatGPT那样的当代聊天窗口工具,现在有许多,可以利用三方的,也自己clone当地运行:
LobeChat:lobehub.com/zh/features
ChatBox:chatboxai.app/zh
等等
这里以 Chatbox 为例简单实用,进入官网,点击【启动网页版】
进入网页版聊天页面,点击左下角【Settings】,设置完成后即可用利用Chat了。
利用体验
本人利用是Mac mini,无GPU,3.2 GHz 六核Intel Core i7,32G运行内存,500G存储分别跑了 qwen2.5:14b、qwen2.5:7b、qwen2.5:3b、qwen2.5:0.5b,现在为止只体验了模型相应速度:
终端模型:在终端直接利用模型聊天,qwen2.5:0.5b 相应速度秒回,qwen2.5:3b 相应速度较快,qwen2.5:7b 相应速度逐行,qwen2.5:14b相应速度较慢和逐词差不多
VS Code:在VS Code中共同 Continue 插件利用,效果体感较差,相应速度都很慢
ChatUI:利用不多,没有深度体验
只在VS Code + Continue中体验了qwen2.5:0.5b 的内容天生,提示到一半就死循环了,体感效果很差。
总结
利用Ollama可以轻松在当地部署模型,但是需要选择符合体系设置参数的模型,无GPU的电脑部署了较大的模型可能相应速度较慢,需要肯定的忍耐度,硬件设置不是很好的小伙伴照旧建议利用现有模型服务,模型真的很费存储和算力。
怎样学习AI大模型?
大模型时代,火爆出圈的LLM大模型让步伐员们开始重新评估自己的本领。 “AI会代替那些行业?”“谁的饭碗又将不保了?”等问题热议不停。
不如成为「掌握AI工具的技能人」,究竟AI时代,
谁先实验,谁就能占得先机!
想正式转到一些新兴的 AI 行业,不仅需要体系的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增长自己的职场竞争力。
但是LLM相关的内容许多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高
那么我作为一名热心肠的互联网老兵,
我意识到有许多经验和知识值得分享给大家,希望可以资助到更多学习大模型的人!
至于能学习到多少就看你的学习毅力和能力了 。
我已将重要的AI大模型资料包括AI大模型入门学习思维导图、佳构AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完备版的大模型 AI 学习资料已经上传CSDN,朋侪们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【包管100%免费】
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
大连全瓷种植牙齿制作中心
金牌会员
这个人很懒什么都没写!
楼主热帖
初识C语言
记一次 .NET 某汽贸店 CPU 爆高分析 ...
浅入浅出 1.7和1.8的 HashMap
Net core中使用System.Drawing对上传的 ...
前后端分离项目(八):后端报错Field ...
java学习第二天
Python爬虫之基于selenium实现12306模 ...
业务安全发展的三个阶段
7.1 实现进程内存块枚举
Docker三种自定义网络(bridge、macvla ...
标签云
存储
挺好的
服务器
快速回复
返回顶部
返回列表