论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
软件与程序人生
›
移动端开发
›
利用LM Studio、Ollama+Chatbox AI为Macbook Pro(Mac M4 ...
利用LM Studio、Ollama+Chatbox AI为Macbook Pro(Mac M4 Pro)当地配置DeepS ...
盛世宏图
金牌会员
|
2025-2-14 22:27:12
|
显示全部楼层
|
阅读模式
楼主
主题
881
|
帖子
881
|
积分
2643
提示:文章写完后,目录可以自动生成,怎样生成可参考右边的资助文档
前言
安装预备:
1.安装包
1) LM Studio 官网下载:“LM-Studio-0.3.9-6-arm64.dmg”
2) Ollama 官网下载:“Ollama.app”
app下文件下载后可直接打开,建议粘贴至“/Applications”文件夹
只配置Ollama + Chatbox AI + DeepSeek 可以不看“
前言 4)
”
3) Chatbox AI官网下载:“Chatbox-1.9.5-arm64.dmg”
4) 下载DeepSeek“蒸馏”模型的二进制文件“.gguf”
Hugging Face官网:该网址可能必要外网服务
镜像下载地址 HF-mirror可以直接访问雷同Hugging Face
这里笔者推荐各人根据自己需求和盘算机的本事选择符合模型
笔者的 M4 Pro 48G 内存,故选择了32B Q4量化的模型
找到对应的“.gguf”文件后,为了直接下载到当地,选择“Files”
至此我们预备好了所有必要的内容,下面开始安装和配置
一、LM Studio + DeepSeek-R1-Distill-Qwen-32B-Q4_K_M.gguf
1.配置模型
初次打开 LM Studio 选择右上角的“跳过”,选择右下角的“设置”图标,设置语言方便操纵
各人可以选择开发者模式方便利用
选择“我的模型” 举行配置,这里笔者更改了模型存放的路径,方便其他APP能够复用下载好的模型
模型的当地存放必要“两级目录”,“models”是目标文件夹,“.gguf”存放在“models”二级目录
二、Ollama + Chatbox
1. 配置模型
打开下载好Ollama,
顶栏
会体现相应的“小猪图标”
打开下令行窗口(shell)举行操纵
查验是否正确安装
ollama -v
ollama --version
复制代码
1) 方法一:利用下令下载模型并配置(联网)
安装及运行下令
:参考 ollama 官网
# DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
# DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
# DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
# DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
# DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
# DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
复制代码
首次运行会安装,第二次运行雷同下令会直接加载
退出下令行的谈天对话
/bye
复制代码
2) 方法二:加载已有模型
创建
Modelfile
文件,存放在“/Users/alon/.ollama”
# FROM .gguf的路径(建议绝对路径)
FROM /Users/alon/models/DeepSeek/R1/DeepSeek-R1-Distill-Qwen-32B-Q4_K_M.gguf
# 设定温度参数为1 [更高的更具有创新性,更低的更富有连贯性]
PARAMETER temperature 0.75
# 将上下文窗口大小设置为4096,这控制着LLM能够使用多少个token来生成下一个token。
PARAMETER num_ctx 4096
复制代码
创建模型
# ollama create 模型名称 -f Modelfile路径
ollama create ds_32b -f /Users/alon/.ollama/Modelfile
复制代码
安装成功够也可以利用下令查看模型
ollama list
复制代码
运行模型即可举行下令行对话
# ollama run 模型名称
ollama run ds_32b
复制代码
2.配置Chatbox AI
打开安装好Chatbox AI,顶栏会出现图标
总结
至此,当地DeepSeek R1 蒸馏模型就配好了,各人可以根自己的谈天助手对话了
1.之所以下载 .gguf 文件配置,是为了淘汰存储浪费,LM Studio 和 Ollama 都可以利用该文件。
2.怎样自界说利用大模型,练习具有不同偏重和功能的模型之后的文章会探究。(Ollama 可以在已有的模型上创建新的模型,LM也可以,不同的对话窗口与同一模型的学习关系是怎样也在之后的文章探究)
本文知乎同稿:https://zhuanlan.zhihu.com/p/21158012148
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
盛世宏图
金牌会员
这个人很懒什么都没写!
楼主热帖
绝了,这20款可视化大屏模板太酷炫了( ...
零基础学Java(1)初识Java程序 ...
【十年网络安全工程师整理】—100渗透 ...
聊聊DevOps制品管理-不止是存储制品这 ...
Python程序运行内存的查看
Frida主动调用java函数来爆破解题思路 ...
lamp
数据库扩容也可以如此丝滑,MySQL千亿 ...
记一次 .NET 某RFID标签管理系统 CPU ...
【Linux进程概念——下】验证进程地址 ...
标签云
挺好的
服务器
快速回复
返回顶部
返回列表