ToB企服应用市场:ToB评测及商务社交产业平台

标题: 【AIGC】DeepSeek本地部署方法详解:基于Ollama与LM-Studio [打印本页]

作者: 去皮卡多    时间: 6 小时前
标题: 【AIGC】DeepSeek本地部署方法详解:基于Ollama与LM-Studio

本文重要先容怎样利用两种大模型部署工具——OllamaLM-Studio,在本地环境下部署 DeepSeek。内容涵盖了两个工具的特征与优势、官方下载链接、安装与下载大模型的关键步调,以及通过表格对 DeepSeek 不同版本的性能要求、模型文件巨细和擅长范畴进行对比。
一、 工具概述:Ollama 与 LM-Studio

1.Ollama(保举)


2.LM-Studio



二、安装与下载大模型的关键步调

利用 Ollama 部署 DeepSeek

  1. 鉴于需要魔法,为了方便大家使用,免费分享安装包:通过网盘分享的文件:OllamaSetup.exe
  2. 链接: https://pan.baidu.com/s/1_bV3Q_uiJEaSxqbN1dVuqw?pwd=8888 提取码: 8888
复制代码

利用结果

利用 LM-Studio 部署 DeepSeek


三、DeepSeek常用版本说明

DeepSeek 各常用版本说明:
版本名称CPU要求内存要求硬盘要求(模型文件)GPU要求适用场景DeepSeek-R1-1.5B最低4核(如Intel i5或AMD Ryzen 5)8GB≥12GB(模型文件约4~5GB)可选(无GPU加快时利用CPU推理)教诲范畴(底子AI教学演示)、小型企业(产物形貌、邮件生成)、个人开发DeepSeek-R1-7B/8B8核以上(如Intel i9或AMD Ryzen 7)16GB≥12GB(模型文件约4~5GB)保举8GB显存(如RTX 3060)内容创作(短篇故事、诗歌、广告文案)、客户服务、数据分析DeepSeek-R1-14B12核以上(如AMD Ryzen 9)32GB≥80GB(模型文件约60GB)保举16GB显存(如RTX 4090)企业级应用(合同分析、报告生成)、长文本生成、多语言翻译DeepSeek-R1-32B16核以上(如AMD EPYC 7003系列)64GB≥256GB保举24GB显存(如A100 40GB)专业范畴(医疗、法律知识问答)、多模态任务(图文分析)、复杂数据分析DeepSeek-R1-70B32核以上(如AMD EPYC 9004系列)128GB≥256GB多卡并行(如4×RTX 4090或2×A100 80GB)科研机构(复杂模仿)、大型企业(大规模数据分析与猜测)、创意写作(科幻、脚本)DeepSeek-V3(付费j接入API)最低128核512GB≥1T(模型文件约642GB)H100*16高质量内容生成、复杂对话、深入分析任务
DeepSeek-Math版本侧重点
该版本专注于数学运算和公式推导,针对数学符号、表达式以及数理逻辑进行了特殊优化,具备更高的计算精度和推理能力,得当数学建模、学术研究和教诲场景中对数学题目的求解。
DeepSeek-Coder版本侧重点
该版本重要面向编程辅助和代码生成,内置多语言支持和智能调试功能,可以或许理解编程语境和生成高质量代码,适用于软件开发、自动化代码生成和技术文档编写。
以上内容由个人验证/资料网络,凡有错误还请不吝指正

后记:快速利用线上满血版deepseek可以利用这个工具


接待填写我的邀请码❤️74RJHH,获取更多免费利用额度。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4