大模型【Qwen2-7B本地部署(WEB版)】(windows)

饭宝  金牌会员 | 2024-7-29 07:47:12 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 576|帖子 576|积分 1728

大模型系列文章目录


Qwen2-7B本地部署(WEB版)
媒介

大模型是截止2024年上半年最强的AI,Qwen2是刚出来的号称国内最强开源大模型。这是大模型系列的第一篇文章,旨在快速部署看看最近出来的大模型效果怎么样,效果ok的话就微调自己的GPTs了。
一、Ollama下载安装


  • 进入官网
  • 点击Download
  • 选择Windos,点击Download for Windows (Preview),这里fq会快很多
  • 默认安装
二、Qwen2下载安装

1.下载Qwen2


  • 进入官方教程:https://qwen.readthedocs.io/zh-cn/latest/getting_started/installation.html
  • 先在最下面点击效率评估,看下各个模型占的显存,选择适合自己的,好比我的显卡是4070,有12G显存,我选择的模型就是Qwen2-7B-Instruct GPTQ-Int4

  • 进入下载链接
  • 会看到不同的后缀,q”+ 用于存储权重的位数(精度)+ 特定变体,数字越大性能越强。
  • 数字越大,精度越高,k是在全部的attention和feed_forward张量大将精度提升2位,m是在一半的attention和feed_forward张量大将精度提升2位。
  • 根据自己的需求选择模型,我这里直接选了q8。
2.运行Qwen2


  • 新建一个文件夹,自己取个英文名(qwen),把qwen2-7b-instruct-q8_0.gguf移到文件夹里。
  • 在文件夹里新建一个名为Modelfile的文件,里面填
  1. FROM ./qwen2-7b-instruct-q8_0.gguf
复制代码

  • 然后用命令行通过ollama创建Qwen2-7B模型:
  1. ollama create Qwen2-7B -f ./Modelfile
复制代码
出现success代表创建成功

  • 运行,输入命令
  1. ollama run Qwen2-7B
复制代码
出现对话框就可以聊天啦

如果要看本地有哪些大模型:ollama list
如果要删除这个模型的话:ollama rm xxx
如果要看运行了哪些大模型:ollama ps
但是在dos中聊天总感觉在上世纪的聊天方式一样,以是为了找到GPT的感觉,接下来我们继承在web中实现。
三、Node.js

1.Node.js下载安装


  • 进入Node官网下载Node,安装
  • 验证node的版本:
  1. node -v
复制代码
v20以上就没问题

  • 下载ollama-webui代码
  • 进入ollama-webui文件夹,设置国内镜像源提速:
  1. npm config set registry http://mirrors.cloud.tencent.com/npm/
复制代码

  • 安装Node.js依赖:
  1. npm install
复制代码
如果报错说要audit,则依次进行即可:
  1. npm audit
  2. npm audit fix
复制代码

  • 启动Web界面:
  1. npm run dev
复制代码
打开Web页面,选择你的模型即可开始对话:


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

饭宝

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表