论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com
»
论坛
›
开源技术
›
开源技术
›
Windows本地部署通义千问QwQ-32B实践,阿里千问QwQ-32B ...
Windows本地部署通义千问QwQ-32B实践,阿里千问QwQ-32B推理模型开源,比肩6 ...
锦通
论坛元老
|
2025-3-17 06:57:45
|
显示全部楼层
|
阅读模式
楼主
主题
1012
|
帖子
1012
|
积分
3036
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
各人好,我 是AI 的魔盒,让我们一起探索AI的魔力,我会持续将最新大模型的资讯,大模型的实践与各人分享,请持续关注!
一、起首需要安装Ollama,安装ollama的方法请参考我前边的文档
【在 Windows 体系下,用 DeepSeek R3 + Dify搭建私有知识库的超详细教程】_windows dify deepseek-CSDN博客
二、利用ollama安装QwQ-32B
安装命令如下:
ollama run qwq
复制代码
下载速度咋也太快了吧
功德多磨啊,正在期盼的时候,突然报如下错误:
C:\Users\Administrator>ollama run qwq
pulling manifest
pulling manifest
pulling c62ccde5630c... 0% ▕ ▏ 999 KB/ 19 GB
Error: max retries exceeded: write C:\Users\Administrator\.ollama\models\blobs\sha256-c62ccde5630c20c8a9cf601861d31977d07450cad6dfdf1c661aab307107bddb-partial: There is not enough space on the disk.
复制代码
办理方法
设置ollama_models目次位置
OLLAMA_MODELS=E:\ai\models
设置完成后利用如下命令查看是否已经生效
ollama serve
复制代码
C:\Users\Administrator>ollama serve
2025/03/07 14:52:30 routes.go:1187: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://127.0.0.1:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_KV_CACHE_TYPE: OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:D:\\ai\\models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://* vscode-webview://*] OLLAMA_SCHED_SPREAD:false ROCR_VISIBLE_DEVICES:]"
time=2025-03-07T14:52:31.631+08:00 level=INFO source=images.go:432 msg="total blobs: 12"
time=2025-03-07T14:52:31.632+08:00 level=INFO source=images.go:439 msg="total unused blobs removed: 0"
time=2025-03-07T14:52:31.632+08:00 level=INFO source=routes.go:1238 msg="Listening on 127.0.0.1:11434 (version 0.5.7)"
time=2025-03-07T14:52:31.633+08:00 level=INFO source=routes.go:1267 msg="Dynamic LLM libraries" runners="[cpu_avx2 cuda_v11_avx cuda_v12_avx rocm_avx cpu cpu_avx]"
time=2025-03-07T14:52:31.633+08:00 level=INFO source=gpu.go:226 msg="looking for compatible GPUs"
time=2025-03-07T14:52:31.633+08:00 level=INFO source=gpu_windows.go:167 msg=packages count=1
time=2025-03-07T14:52:31.633+08:00 level=INFO source=gpu_windows.go:183 msg="efficiency cores detected" maxEfficiencyClass=1
time=2025-03-07T14:52:31.633+08:00 level=INFO source=gpu_windows.go:214 msg="" package=0 cores=14 efficiency=8 threads=20
time=2025-03-07T14:52:31.770+08:00 level=INFO source=types.go:131 msg="inference compute" id=GPU-f7eb66b9-7d88-dcbb-dc72-62d2ba3458c1 library=cuda variant=v12 compute=8.6 driver=12.8 name="NVIDIA GeForce RTX 3060" total="12.0 GiB" available="11.0 GiB"
复制代码
接着跑,这次成功了,哈哈哈
C:\Users\Administrator>ollama run qwq
pulling manifest
pulling c62ccde5630c... 100% ▕█████████████████████████████████████████████████████████▏ 19 GB
pulling 41190096a061... 100% ▕█████████████████████████████████████████████████████████▏ 1.2 KB
pulling d18a5cc71b84... 100% ▕█████████████████████████████████████████████████████████▏ 11 KB
pulling 4afe5edfdb51... 100% ▕█████████████████████████████████████████████████████████▏ 77 B
pulling 6a8faa2fb8b0... 100% ▕█████████████████████████████████████████████████████████▏ 488 B
verifying sha256 digest
writing manifest
success
复制代码
终于瞥见了,整体一下来效果还不错,中文名叫通义千问,英文名叫Qwen
[code]>>> 你好
<think>
</think>
你好!今天过得怎么样?
>>> 你是谁
<think>
嗯,用户问“你是谁”,我需要先回顾之前的对话。用户一开始打招呼“你好”,然后我回应了友好的问候,并询问他们的情况。现
在用户接着问“你是谁”,显然是想了解我的身份。
首先,我要确认用户的意图。可能他们刚接触这个平台,或者之前没和AI交流过,所以想知道对方是谁。这时候需要明确回答自己的
身份,同时保持友好和简洁。
根据之前的设定,我应该介绍自己是通义千问,阿里云研发的超大规模语言模型。要提到我的功能,比如回答问题、创作文字等,并
且强调能帮助用户解决问题或提供信息。这样既回答了问题,又展示了我能提供的服务,鼓励用户继续互动。
另外,要注意用户的使用场景可能是在测试AI的能力,或者真的需要帮助。所以回应里应该包含足够的信息,但不过于冗长。同时保
持口语化,避免技术术语太多,让用户容易理解。
还要考虑是否遗漏了什么。比如用户可能想知道我的能力范围,或者是否有特殊功能。可以简要提到多语言支持和不同领域的知识,
这样用户知道我可以处理各种主题的问题。
最后,确保语气友好,结尾用问句邀请用户提出具体需求,促进进一步的对话。检查有没有拼写或语法错误,保持回答自然流畅。
</think>
你好!我是通义千问,阿里巴巴集团旗下的超大规模语言模型。我的中文名叫通义千问,英文名叫Qwen,可以回答问题、创作文字,
比如写故事、写公文、写邮件、写剧本、逻辑推理、编程等等,还能表达观点,玩游戏等。有什么我可以帮你的吗?
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
锦通
论坛元老
这个人很懒什么都没写!
楼主热帖
vue3 - 最新详细实现 “拖曳式课程表“ ...
快速入手node.js
奇怪,为什么ArrayList初始化容量大小 ...
漏洞利用
医院HIS体系厂家统计
如何成为一位人心所向的管理者?我的经 ...
理解MVCC
如何在文章中设置灰色文本框(正文底色 ...
Vue实现复制粘贴功能
八、MySQL之事务控制语言
标签云
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表