【Deepseek】Linux 本地摆设 Deepseek

打印 上一主题 下一主题

主题 840|帖子 840|积分 2520

前言

本文介绍在 Linux 系统上摆设 Deepseek AI。本文教程是面向全部想体验 AI 玩家的一个浅易教程,因此即使是小白也可以轻松完成体验,话不多说立马着手去干。
[注]:笔者使用的系统为 Ubuntu 24.10
1. 关于 ollama

Ollama 是一款开源应用,可让你在 Windows、MacOS 和 Linux 上使用命令行界面在本地运行、创建和共享大型语言模子。Ollama 最初支持 Llama2,然后扩展了其模子库以包罗 Mistral 和 Phi-2 等模子。Ollama 让您可以大概轻松开始在您自己的硬件上运行 LLM,专为简化大型语言模子(LLM)在本地机器上的摆设和运行而计划。它通过将模子权重、配置和数据打包为 Modelfile,优化了 LLM 的设置和配置过程,使得非专业用户也能方便地管理和运行这些模子。Ollama 支持多种 LLM,并提供跨平台支持,用户可以通过简单的命令行利用或 API 来启动和运行模子。它在文本生成、翻译、问答系统和代码生成等多个应用场景中具有广泛的应用价值。
2. 下载并安装 ollama

ollama 官网链接:https://ollama.com/
进入官网映入眼帘的便是一个线条羊驼头像,正下方就是引人注目的 Download 按钮,直接点击进去。

这里直接点击复制官网提供的命令,粘贴到 Linux 的终端里实行。

假如精确安装完的日记信息将会是如下输出,由于笔者这台机器没有 GPU,因此这里会有个 WARNING,常规有 GPU 的机器则会输出 >>> NVIDIA GPU installed. 的字样。
安装完成,可以输入 ollama --version 来查验是否安装成功,假如精确安装则会输出所安装 ollama 的版本号。

到这里 Ollama 算是安装完成。
2.1. 安装报错的办理方法

假如在上述过程中没有报错则可以跳过此末节。若上述过程有报错的小伙伴可以尝试如下方法。
使用 curl 先下载 ollama 的安装脚本。
  1. $ curl -fsSL https://ollama.com/install.sh -o ollama_install.sh
复制代码
为下载下来的脚本文件添加可实行权限。
  1. $ chmod +x ollama_install.sh
复制代码
用如下命令,将 ollama 的默认下载地址指向 Github 下载。
  1. $ sed -i 's|https://ollama.com/download/|https://github.com/ollama/ollama/releases/download/v0.5.11/|' ollama_install.sh
复制代码
[注]:该版本是笔者安装时的最新版本,当按照该方法安装时发起查询当前最新版本号,安装最新版的 Ollama。

[注]:只必要看红线画出的命令,别的为笔者在粘贴的时候多复制了 $ 导致实行错误。
这时用该方法 Ollama 安装完成。
3. 配置模子存储位置

盼望使用默认存储位置的小伙伴可以跳过此末节,直接看后面的下载模子。
在 Linux 中 Ollama 默认的模子存储位置通常为 /usr/share/ollama/.ollama/models,固然也可以手动指定其路径。通过修改 OLLAMA_MODELS 环境变量完成。
首先关闭 ollama 服务。
  1. sudo systemctl stop ollama
  2. sudo systemctl disable ollama.service
复制代码
[注]:若正在运行 ollama 则必要手动停止正在运行的程序 ctrl + c,对于首次安装的小伙伴则可以忽略这一点。
创建必要指定的目录,必要注意的是该目录的所属权必须全部是 root,且目录的权限为 775。
例如笔者这里创建的目录为 /usr/local/ollama/models,为其设置权限。
  1. sudo chown -R root:root /usr/local/ollama/models
  2. sudo chmod -R 775 /usr/local/ollama/models
复制代码
修改 service 文件。
  1. sudo vim /etc/systemd/system/ollama.service
复制代码
将其中的 User 和 Group 修改为 root,同时在 [Service] 项中添加一行 Environment,用来指定模子存储路径。
  1. Environment="OLLAMA_MODELS=*********"
复制代码
[注]:**** 表示所要指定的具体完成路径。

重载配置并重启 ollama。
  1. sudo systemctl daemon-reload
  2. sudo sudo systemctl start ollama.service
  3. sudo sudo systemctl restart ollama.service
  4. sudo sudo systemctl enable ollama.service
复制代码
可以通过如下命令查看 ollama 服务是否正常工作。
  1. sudo sudo systemctl status ollama.service
复制代码

这时进入新指定的目录则会看到生成了 blobs 目录。

到此,模子的存储位置修改完成。
4. 下载 Deepseek 模子

Ollama 拉取和使用模子的利用跟 Docker 很像,以是假如有过使用容器的履历的话,用起来会非常顺手。首先我们访问以下 Ollama 官方的模子库中的DeepSeek-R1。


这里笔者由于没有 GPU 同时也方便演示选择较小的 7b,点击右边的复制按钮,复制命令。

将上图中复制的命令中的 run 在终端中修改为 pull,由于 pull 是支持断点续传的,因此非常恰当网络环境不稳定的小伙伴,当中断后仍然可以重新 pull 继续之前的下载。
  1. $ ollama pull deepseek-r1:7b
复制代码
[注]:这里耐心期待几分钟。

看到 success 字样也就说明模子下载完成了,实行如下命令可查看 ollama 目前所下载的模子列表。
  1. $ ollama list
复制代码

进入模子的存储路径同样也会看到下载好的模子。

5. 体验 Deepseek

运行如下命令进入命令行提问模式,这里的模子必要与下载的模子雷同。
  1. $ ollama run deepseek-r1:7b
复制代码
我们来问个考验 AI 经典的问题吧。

6. 安装 Chatbox AI

https://www.chatboxai.app/zh

Linux 下载的文件名为 Chatbox-***.AppImage,事实上是一个可实行文件,这里必要给它修改为可实行的。

直接实行该文件,发现会报错,缺少一个库文件。
  1. $ ./Chatbox-1.9.8-x86_64.AppImage
  2. dlopen(): error loading libfuse.so.2
  3. AppImages require FUSE to run.
  4. You might still be able to extract the contents of this AppImage
  5. if you run it with the --appimage-extract option.
  6. See https://github.com/AppImage/AppImageKit/wiki/FUSE
  7. for more information
复制代码
实行如下命令安装即可。
  1. sudo apt install libfuse2
复制代码
再次运行该程序,发现会报如下错误。
  1. $ ./Chatbox-1.9.8-x86_64.AppImage
  2. [30328:0220/145555.961814:FATAL:setuid_sandbox_host.cc(157)] The SUID sandbox helper binary was found, but is not configured correctly. Rather than run without sandboxing I'm aborting now. You need to make sure that /tmp/.mount_ChatbopUEEU8/chrome-sandbox is owned by root and has mode 4755.
  3. 追踪或断点陷阱 (核心已转储)
复制代码
这大概与笔者使用的系统版本有关 Ubuntu 24.10,在别的版本的 Linux 上不会报错,颠末查找只能在厥后添加 --no-sandbox 才可以正常启动。
  1. $ ./Chatbox-1.9.8-x86_64.AppImage --no-sandbox
复制代码

这里必要配置选择使用本地模子,点击生存。

现在就可以开始对话,这里照旧用与上面同样的问题来提问。

它也可以解析一些静态网页,例如这里笔者将之前写的《【Deepseek】Windows本地摆设Deepseek——小白版》 链接丢进去,该模子可以对该链接的内容简单解析。

7. 安装 AnythingLLM

官网 https://anythingllm.com/,Anythingllm 是功能强盛的语言模子应用框架,它可支持很多本地摆设大模子,并提供对用户友好的界面。这里作为与 ollama 搭配,作为本地知识库使用。

实行如下命令,下载 Linux 版本的 AnythingLLM。
  1. curl -fsSL https://cdn.anythingllm.com/latest/installer.sh | sh
复制代码
下载好的文件会默认生存在 ~/AnythingLLMDesktop 目录下,进入该目录。
  1. ~$ cd AnythingLLMDesktop/
  2. AnythingLLMDesktop$ ls
  3. anythingllm-desktop  start
复制代码
直接运行,start 脚本,这里大概是因为笔者所使用的系统版本缘故原由,会报如下错误。
  1. AnythingLLMDesktop$ ./start
  2. [57804:0220/154849.629752:FATAL:setuid_sandbox_host.cc(158)] The SUID sandbox helper binary was found, but is not configured correctly. Rather than run without sandboxing I'm aborting now. You need to make sure that /home/imaginemiracle/AnythingLLMDesktop/anythingllm-desktop/chrome-sandbox is owned by root and has mode 4755.
  3. 追踪或断点陷阱 (核心已转储)
复制代码
办理方法如下,进入 ~/AnythingLLMDesktop/anythingllm-desktop/ 目录。
  1. AnythingLLMDesktop$ cd anythingllm-desktop/
  2. anythingllm-desktop$ ls
  3. anythingllm-desktop          icudtl.dat              locales
  4. anythingllm-desktop.desktop  libEGL.so               resources
  5. anythingllm-desktop.png      libffmpeg.so            resources.pak
  6. AppRun                       libGLESv2.so            snapshot_blob.bin
  7. chrome_100_percent.pak       libvk_swiftshader.so    usr
  8. chrome_200_percent.pak       libvulkan.so.1          v8_context_snapshot.bin
  9. chrome_crashpad_handler      LICENSE.electron.txt    vk_swiftshader_icd.json
  10. chrome-sandbox               LICENSES.chromium.html
复制代码
修改 chrome-sandbox 文件权限,并退出该目录。
  1. $ sudo chown root:root chrome-sandbox
  2. $ sudo chmod 4755 chrome-sandbox
  3. $ cd ~/AnythingLLMDesktop
复制代码
再次实行 start 脚本。
  1. $ ./start
复制代码
成功启动 AnythingLLM。


接下来在填写邮箱并选择相应选项进入使用,打开设置可以看到这里使用的是本地的模子。

可以在这里选择上传本地知识库,为模子添加知识库,不过在提问的时候大概必要添加一些提示,模子才会接洽到本地的知识库文件。

#到此恭喜你已经完成了在 Linux 上本地摆设 Deepseek。

#完


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

小小小幸运

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表