河曲智叟 发表于 2025-4-8 11:09:23

Mac下Ollama安装与设置:开启本地大模子之旅

一、Ollama 是什么

1. 项目定位

Ollama 是一个开源工具,主要用于在本地计算机上高效摆设和运行大型语言模子(LLM)。它提供了丰富的功能和特性,通过简化的下令行和可视化界面,帮助用户快速下载、管理和交互多种开源模子(如 Llama 3、Mistral、Phi-3 等),无需依靠云端服务,特别适合开发者、研究人员及对数据隐私有高要求的用户。
2.功能特点

模子一键摆设:支持从官方库快速下载 1700+ 模子,涵盖不同参数规模(如 7B、13B、70B)。
本地运行优化:针对硬件(如 Apple Silicon 芯片的 Metal 加速、NVIDIA GPU 的 CUDA 支持)自动优化计算资源。
跨平台兼容:原生支持 macOS(Intel/Apple Silicon)、Linux 和 Windows(WSL2)。
灵活接口:
   
[*]下令行交互:通过 ollama run 直接对话模子。
[*]API 集成:提供 RESTful API(默认端口 11434),方便与 Python、JavaScript 等应用集成。支持热加载模子文件,用户可以通过接口使用最新版本的模子,并且无需重新启动即可切换不同的模子,为用户提供了更加灵活和高效的使用体验。
[*]WebUI 扩展:支持 Docker 摆设可视化界面(如 OpenWebUI),提升交互体验。
[*]模子库支持:内置了一个模子库,用户可以从中下载和运行不同的大型语言模子,如 Llama 2、Mistral 等。别的,它还支持自定义和创建模子,以满足用户的个性化需求。
3. 技能亮点

**轻量级架构:**基于 Go 语言开发,依靠少,启动速率快。
**模子量化技能:**支持 4-bit/8-bit 量化,降低显存占用(如 70B 模子仅需 32GB 内存)。
**多模态探索(实验性):**部分模子支持文本天生、代码解释及图像理解(需特定版本)。
4. 实用场景

**个人 AI 助手:**本地运行,避免敏感数据外传。
**开发测试:**快速验证模子效果,集成到应用中。
**学术研究:**低本钱实验不同模子架构和参数。
**离线环境:**通过离线摆设支持无网络场景(如企业内部服务器)。
5. 资源生态

官方模子库: Ollama Library 提供丰富模子,连续更新。
社区支持: 活跃的 GitHub 社区和文档,办理摆设困难。
工具链整合: 与 LangChain、LlamaIndex 等框架兼容,构建复杂 AI 工作流。
6.应用场景

文本天生: 可以用于天生各种文本内容,例如新闻文章、博客文章、诗歌、代码等。
翻译: 帮助用户将文本从一种语言翻译成另一种语言。
问答: 回答用户提出的各种标题,为用户提供准确的信息和解答。
代码天生: 根据用户的需求天生相应的代码,例如 Python 代码、JavaScript 代码等,进步开发效率。
二、安装Ollama

方法1:通过Homebrew安装(保举)

1、安装Homebrew(若未安装):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
2、安装Ollama:
brew install ollama
3、验证安装:
输入 ollama -v 或 ollama serve,若显示版本号或服务启动成功即安装完成
方法2:直接下载安装包

官网下载: 访问 Ollama官网,选择Mac版本下载安装包(支持Apple Silicon和Intel芯片)
![请添加图片形貌](https://i-blog.csdnimg.cn/direct/31358bfe188a4124a9434157ee667cd4.jpeghttps://i-blog.csdnimg.cn/direct/0e09a7b09c9347769a53f419b067d92e.jpeg
选择对应的体系,点击下载
解压并运行: 解压下载的ZIP文件,按提示将应用移动到“应用程序”文件夹,双击启动即可https://i-blog.csdnimg.cn/direct/c34ecc1aa49642a4b8b5f6da4ae82d9b.jpeg
解压之后,将安装包拖到applications文件夹,双击举行安装
https://i-blog.csdnimg.cn/direct/e3cd7091f5c24cfe830b9924eac6ee13.jpeg
点击next安装完成之后,会有提示告诉你怎样安装指定模子:
https://i-blog.csdnimg.cn/direct/0938a853902748e8bb08d0fc25c8c16a.jpeg
三、运行与模子管理

1. 启动服务

ollama serve# 启动本地服务,默认端口11434
访问 http://localhost:11434 可验证服务状态
2. 下载并运行模子

常用下令:
ollama run llama3:8b# 下载并运行Llama3 8B模型
ollama list         # 查看已安装模型
ollama rm 模型名      # 删除模型
内存建议:
   8B模子需8GB内存,13B需16GB,70B需32GB
    首次运行会自动下载模子文件,默认存储路径为 ~/.ollama/models
3. 自定义模子存储路径

通过环境变量修改默认路径:
# 临时设置
export OLLAMA_MODELS="/path/to/new/models"
# 永久生效(添加到 ~/.zshrc 或 ~/.bash_profile)
echo 'export OLLAMA_MODELS="/path/to/new/models"' >> ~/.zshrc
source ~/.zshrc
重启Ollama服务后生效
四、摆设WebUI(可视化界面)

1. 安装Docker

下载 Docker Desktop for Mac(选择Apple Silicon版本)
启动Docker并配置镜像加速(可选)
2. 启动OpenWebUI容器

docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
访问 http://localhost:3000 注册账号后即可使用Web界面管理模子和对话
五、高级配置

1. 环境变量调优

常用变量:
OLLAMA_HOST="0.0.0.0"       # 允许外部访问
OLLAMA_KEEP_ALIVE="10m"   # 延长连接保持时间
OLLAMA_MAX_VRAM="8GB"       # 限制显存使用
通过 export 下令或修改Shell配置文件设置
2. 离线摆设方案

1、在有网络的环境下载模子和Docker镜像:
ollama pull llama3
docker save ollama/ollama -o ollama.tar
2、离线环境加载镜像并启动服务:
docker load -i ollama.tar
docker run -d -p 11434:11434 -v ~/.ollama:/root/.ollama ollama/ollama
六、常见标题排查

端口辩论: 确保11434和3000端口未被占用,或通过 OLLAMA_HOST 修改端口
模子加载失败: 检查模子存储路径权限及磁盘空间,建议至少预留20GB空间
WebUI无法毗连: 确认Ollama服务已启动,且Docker容器网络配置正确39。
六、扩展资源
模子库:访问 Ollama Library 获取1700+模子(如Phi-3、Mistral等)
API开发:通过Python或JavaScript库集成模子到应用,示例代码见网页

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: Mac下Ollama安装与设置:开启本地大模子之旅