LM Studio:在 Mac 上轻松运行当地 AI 大模型
1. 下载与安装 LM Studio
步调 1:访问官网并下载
- 打开浏览器,访问 LM Studio 官网。
- 选择适用于 Mac 的版本并下载安装包。
步调 2:安装 LM Studio
- 将下载的 .dmg 文件拖拽到 Applications 文件夹中。
- 打开 Applications 文件夹,双击 LM Studio 图标启动步伐。
- 根据提示完成安全设置(如允许从“未知来源”安装)。
步调 3:为 LM Studio 更换镜像源(全局更换)
原因:安装开始搜索模型时,列表可以看到,但无法下载模型。这是因为 https://huggingface.co/ 在国内无法访问。即便有科学上网,设置了全局代理也无法生效,无法下载模型。
详细拆解:
- 科学上网的作用:
- 科学上网工具(如 VPN 或代理)通常会将你的网络流量通过境外服务器转发,从而绕过国内的网络限定。
- LM Studio 的特别性:
- 对于大多数软件(如浏览器),科学上网工具可以正常工作,因为它们会遵循系统的代理设置或环境变量(如 HTTP_PROXY)。
- 但是 LM Studio 不支持通过 HTTP_PROXY 设置代理,因此即使你有科学上网工具,LM Studio 也不会使用你配置的代理工具,而是通过 HTTPS 直接尝试毗连 Hugging Face。
解决办法:
- 在 huggingface.co 或国内镜像站 hf-mirror.com 的项目先容页面下载模型后,拖入 LM Studio 的模型文件夹。这样无法使用 LM Studio 本身的搜索功能。
- 使用国内镜像站 hf-mirror.com 更换 huggingface.co。
使用第2种办法:全局更换
在 macOS 上使用 VSCode 为 LM Studio 设置国内模型源(将 huggingface.co 更换为 hf-mirror.com)的操作步调如下:
- 预备工作:检查VSCode 的 code 命令有没有正确安装或配置到系统的环境变量中
- 安装 VSCode 的 code 命令
- 打开 VSCode。
- 按下 Cmd+Shift+P,打开命令面板。
- 输入 Shell Command: Install 'code' command in PATH,然后选择并运行该命令。
- 完成后,关闭并重新打开终端。
- 验证 code 命令是否可用
在终端中输入以下命令:如果显示 VSCode 的版本号,阐明 code 命令已成功安装。
- 确认 LM Studio 的安装路径
- 通常位于 /Applications/LM Studio.app/Contents/
- 定位 LM Studio 的配置文件
- 打开 终端(Terminal)。
- 输入以下命令,进入 LM Studio 的 .webpack 目录:
- cd /Applications/LM\ Studio.app/Contents/Resources/app/.webpack
复制代码 - 使用以下命令在 VSCode 中打开该目录:
- 全局更换域名
- 在 VSCode 中,按下 Ctrl+Shift+H(或点击菜单栏的 Search > Replace in Files),打开全局更换功能。
- 在 Find 输入框中输入 huggingface.co,在 Replace 输入框中输入 hf-mirror.com。
- 点击 Replace All,将全部文件中的 huggingface.co 更换为 hf-mirror.com。
生存全部修改(Ctrl+S)。
- 重启 LM Studio
- 关闭 VSCode 和 LM Studio(如果已打开)。
- 重新启动 LM Studio,此时模型下载功能应已规复正常。
- 验证
- 在 LM Studio 中尝试搜索并下载模型(如 Llama 3.2 3B Instruct 4bit)。
- 如果模型能够正常下载,阐明更换成功。
步调 4:设置中文(可选)
在 LM Studio 的右下角设置中,选择中文语言。
步调 5:设置模型目录(可选)
可以修改但是建议将模型目录设置为英文路径,避免中文特别符号导致的问题。
2. 使用聊天界面
点击Load Model
功能亮点
- 实时互动:与模型对话,观察其反应和性能指标(如每秒 token 数)。
- 多模型支持:轻松切换差异模型,体验差异的 AI 能力。
- Qwen2-7B-Instruct-4bit
- DeepSeek-Coder-V2-Lite-Instruct-4bit-mlx
- Llama-3.2-3B-Instruct-4bit
3. 使用 API 服务器
步调 1:启动 API 服务器
- 点击左侧边栏的“服务器”图标。
- 点击“启动服务器”按钮,复制提供的服务器地点(如 http://localhost:1234)。
步调 2:发送 API 哀求
- 使用 Postman 或代码向服务器发送哀求。比方:
- curl http://localhost:1234/v1/chat/completions \
- -H "Content-Type: application/json" \
- -d '{
- "model": "deepseek-coder-v2-lite-instruct-mlx",
- "messages": [
- {"role": "system", "content": "你是一个乐于助人的助手,对Python非常了解"},
- {"role": "user", "content": "讲一个笑话"}
- ],
- "temperature": 0.7,
- "max_tokens": 50,
- "stream": false
- }'
复制代码 - 观察模型的回复,并将其集成到你的应用中。
4. 常见问题与解决方案
问题 1:无法下载模型
- 原因:国内用户可能无法直接访问 Hugging Face 模型库。
- 解决方案:使用镜像站点 hf-mirror.com 更换 huggingface.co,详细方法如下:
- 打开 LM Studio 的安装目录。
- 使用文本编辑器全局更换 huggingface.co 为 hf-mirror.com。
- 如果更换后仍无法下载模型,可以尝试清除 LM Studio 的缓存或重新安装软件。
问题 2:模型加载迟钝
- 原因:模型文件较大,或硬件配置不敷。
- 解决方案:选择较小的模型(如 llama2 3B),或升级硬件配置(建议至少 16GB 内存)。
结语
LM Studio 是一款功能强大且易于使用的工具,得当任何希望在 Mac 上运行当地 AI 模型的用户。无论是探索 AI 的初学者,还是需要快速集成模型的开发者,LM Studio 都能满意你的需求。赶快下载并体验吧! |