ToB企服应用市场:ToB评测及商务社交产业平台

标题: 使用Ollama当地部署Llama 3.1大模型 [打印本页]

作者: 东湖之滨    时间: 2024-8-29 09:19
标题: 使用Ollama当地部署Llama 3.1大模型
Llama 3.1 介绍
2024 年 7 月 24 日,Meta 公布推出迄今为止最强盛的开源模型——Llama 3.1 405B,Llama 3.1 405B 支持上下文长度为 128K Tokens, 增加了对八种语言的支持,号称第一个在常识、可操纵性、数学、工具使用和多语言翻译方面与顶级人工智能模型相媲美的模型。
固然 405B 新一代大模型所须要的算力成本也是巨大的,一般的中小型企业和个人须要慎重评估一下成本与产出是否值得应用。好在作为新版本发布的一部分,官方也同时推出全新升级的 Llama 3.1 70B 和 8B 模型版本。
我们本日就在百度智能云 GPU 服务器上来部署体验最新 Llama3.1 8B 模型。
安装环境

硬件环境


本文以百度智能云 GPU 服务器为例举行安装部署,购买计算型 GN5 服务器, 设置 16 核 CPU,64GB 内存,Nvidia Tesla A10 单卡 24G 显存,搭配 100GB SSD 数据盘, 安装 Windows 2022 Server 体系。

安装步调

购买服务器





通过欣赏器进入 NVIDIA官方驱动 下载地址,选择相应驱动下载举行安装,本教程我们选择 538.78, CUDA 版本为 12.2。

安装 Ollama 客户端








下载模型文件

加载模型


在下令行中输入如下下令,即可在线拉取模型。
  1. ollama run llama3.1:8b
复制代码
假如您的显卡非常好,其他两个模型的拉取下令如下 :
  1. ollama run llama3.1:70b    ollama run llama3.1:405b
复制代码



更多模型支持

固然 ollama 不仅支持运行 llama3.1,实际上他支持更多的开源模型,详细教程见官方文档: 模型库
手动导入模型

假如您的网络情况不太好,在线下载模型进度缓存,官方也支持从其他渠道下载好的模型导入。
详细参考 导入模型 ,这里不做赘述。
模型应用

直接在控制台中对话

模型加载完成之后,出现如下提示,就可以直接跟大模型对话了。


设置长途访问

Ollama 启动的默认地址为 [http://127.0.0.1:11434](http://localhost:11434) ,我们通过设置环境变量 OLLAMA_HOST来修改默认监听地址和端口,这往往对我们须要长途调用API时非常有用。同时,假如要在open-webui等UI面板中调用 API ,须要为 Ollama 举行跨域设置后方可正常使用。
须要了解如下三个变量的用途
变量名值分析OLLAMA_HOST0.0.0.0:8888用于设置监听的 IP 和端口OLLAMA_ORIGINS*支持跨域访问,也可以指定特定域名,如:“baidu.com,hello.com”OLLAMA_MODELSC:\Users\Administrator\.ollama模型文件较大,发起调整到数据盘目录下。 windows 修改环境变量如下:
右下角这个图标,右键选择退出 。

右键"此电脑 > 属性 > 高级体系设置 > 环境变量 > Administrator 的用户变量 > 新建用户变量"。



设置环境变量,表现监听在0.0.0.0:8888上,其他变量设置依次添加。

  1. ollama run llama3.1:8b
复制代码
API 调用

开启长途连接之后,您就可以长途调用 API 了,示比方下:
  1. curl http://106.12.151.249:8888/api/generate -d '{     "model": "llama3.1:8b",     "prompt": "你好啊"   }'
复制代码
流式输出:

Web UI

上面的对话测试,我们都是通过下令行来举行交互的,固然肯定有可视化的 UI 界面,而且许多,这里介绍两个。
Open WebUI

Github: https://github.com/open-webui/open-webui
官方文档:https://docs.openwebui.com/
官方给出了两种安装方式

有两个留意点:
1) 您的 Python 版本不能为 Python3.12,因为截至本教程编写时,open-webui 还不支持 Python3.12,本教程使用 python3.11 环境,如您 windows 体系中已经有安装 Python3.12,保举使用 Anaconda 来管理多个 Python 运行环境。
2) 运行依赖 pytorch,如您的环境没有安装,执行如下下令安装依赖:
  1. pip install torch torchvision torchaudio --index-url    https://download.pytorch.org/whl/cu121
复制代码
详细安装过程不做赘述,参考 官方安装文档






LobeChat

Github: https://github.com/lobehub/lobe-chat
官方文档:https://lobehub.com/zh/docs/self-hosting/start
详细安装过程不做赘述,参考 官方安装文档 ,大概您也可以参考我们的另一篇文章:零成本搭建一个多模态大模型对话平台









读者福利:假如各人对大模型感兴趣,这套大模型学习资料肯定对你有用
对于0基础小白入门:
   假如你是零基础小白,想快速入门大模型是可以考虑的。
  一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划勤学习操持和方向。
  包罗:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型册本PDF。带你从零基础体系性的学好大模型!





欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4