Ubuntu系统下部署大语言模型:Ollama和OpenWebUI实现各大模型的人工智能自 ...

打印 上一主题 下一主题

主题 845|帖子 845|积分 2535

之前在window下安装过 Ollama和OpenWebUI搭建当地的人工智能web项目(可以看我之前写的文章),无奈电脑硬件配置太低,用qwen32b就很卡,卡出PPT了,于是又找了一台呆板安装linux系统,在linux系统下测试一下速度能否可以快一些。
系统硬件介绍

Ubuntu 22.04.4 LTS
CPU: i5-10400F
内存:32G
硬盘: 512G SSD
显卡: NVIDIA GeForce GTX 1060 6GB
内网IP: 192.168.1.21

下载 Ollama

访问下载: https://ollama.com/

安装Ollama

方法1、命令行下载安装(耗时长)

安装命令:
  1. $ sudo apt  install curl
  2. $ curl -fsSL https://ollama.com/install.sh | sh
复制代码

缺点: 国内网络环境要等很久
方法2 , 手动下载安装

1、手动下载 https://ollama.com/install.sh 这个文件
  1. $ sudo mkdir ollama
  2. cd ollama
  3. $ sudo wget https://ollama.com/install.sh
复制代码
2、解释掉下载部门 curl xxxx 手动下载ollama-linux-{ARCH}
  1. $ sudo vim install.sh
  2. 修改文件:
  3. status "Downloading ollama..."
  4. #curl --fail --show-error --location --progress-bar -o $TEMP_DIR/ollama "https://ollama.com/download/ollama-linux-${ARCH}${VER_PARAM}"
复制代码
我电脑intel/amd cpu 以是 {ARCH} = amd64
浏览器下载 https://ollama.com/download/ollama-linux-amd64 当然科学上网速度更快哟。 放在 install.sh 同目次下
3、解释掉 #$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
改为下面一行:
  1. $ sudo vim install.sh
  2. 修改文件:
  3. status "Installing ollama to $BINDIR..."
  4. $SUDO install -o0 -g0 -m755 -d $BINDIR
  5. #$SUDO install -o0 -g0 -m755 $TEMP_DIR/ollama $BINDIR/ollama
  6. $SUDO install -o0 -g0 -m755 ./ollama-linux-amd64  $BINDIR/ollama
复制代码
4 运行 install.sh ,安装
  1. sh  ./install.sh
复制代码


重启电脑
配置模型下载路径
  1. cd
  2. sudo vim .bashrc
  3. sudo mkdir -p /home/star/ollama/ollama_cache
复制代码
然后添加一行 配置 OLLAMA_MODELS 环境变量自界说路径
  1. ### ollama model dir 改为自己的路径
  2. # export OLLAMA_MODELS=/path/ollama_cache
  3. export OLLAMA_MODELS=/home/star/ollama/ollama_cache
复制代码
假如开始没配置OLLAMA_MODELS ,默认路径是/usr/share/ollama/.ollama/models
启动ollama服务

  1. # ollama --help
  2. Large language model runner
  3. Usage:
  4.   ollama [flags]
  5.   ollama [command]
  6. Available Commands:
  7.   serve       Start ollama
  8.   create      Create a model from a Modelfile
  9.   show        Show information for a model
  10.   run         Run a model
  11.   pull        Pull a model from a registry
  12.   push        Push a model to a registry
  13.   list        List models
  14.   ps          List running models
  15.   cp          Copy a model
  16.   rm          Remove a model
  17.   help        Help about any command
  18. Flags:
  19.   -h, --help      help for ollama
  20.   -v, --version   Show version information
  21. Use "ollama [command] --help" for more information about a command.
复制代码
提示
  1. star@star-ai:~$ ollama serve
  2. Couldn't find '/home/star/.ollama/id_ed25519'. Generating new private key.
  3. Your new public key is:
  4. ssh-ed25519 AAAAC3NzaC1lZDI1NTE5AAAAIPmYsSi6aIsyhC4EHEsCdBtSOqnfKmNVSf0Ofz9sVzyB
  5. Error: listen tcp 127.0.0.1:11434: bind: address already in use
复制代码
阐明已经运行
修改ollama端口

  1. vim /etc/systemd/system/ollama.service
  2. 在 [Service] 下添加  Environment="OLLAMA_HOST=0.0.0.0"
  3. cat /etc/systemd/system/ollama.service
  4. [Unit]
  5. Description=Ollama Service
  6. After=network-online.target
  7. [Service]
  8. ExecStart=/usr/local/bin/ollama serve
  9. User=ollama
  10. Group=ollama
  11. Restart=always
  12. RestartSec=3
  13. Environment="PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin"
  14. Environment="OLLAMA_HOST=0.0.0.0"
  15. [Install]
  16. WantedBy=default.target
复制代码
重新加载配置,重启ollama
  1. systemctl daemon-reload
  2. systemctl restart ollama
  3. 关闭服务
  4. systemctl stop ollama
  5. 启动服务
  6. systemctl start ollama
复制代码
运行qwen大模型

  1. ollama run  qwen
复制代码

安装docker

一键安装脚本
  1. sudo curl -sSL https://get.docker.com/ | sh
  2. 安装完成之后
  3. star@star-ai:~$ sudo docker --version
  4. Docker version 26.1.3, build b72abbb
复制代码
安装Open WebUI

Open WebUI是一个用于在当地运行大型语言模型(LLM)的开源Web界面。
参考: https://docs.openwebui.com/getting-started/#quick-start-with-docker-
docker安装open-webui

  1. $ sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
复制代码
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
  1. $ sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
复制代码
改国内的地址
  1. $ sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda
复制代码
报错:
  1. sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda
  2. 254b47e7994b2f0087ce0058918621523b39cf9b0e89018777c0cf98943ba2d1
  3. docker: Error response from daemon: could not select device driver "" with capabilities: [[gpu]].
复制代码
ubuntu辨认不了我的显卡
  1. $ sudo nvidia-smi
  2. Fri May 17 18:37:15 2024      
  3. +-----------------------------------------------------------------------------------------+
  4. | NVIDIA-SMI 550.54.15              Driver Version: 550.54.15      CUDA Version: 12.4     |
  5. |-----------------------------------------+------------------------+----------------------+
  6. | GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
  7. | Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
  8. |                                         |                        |               MIG M. |
  9. |=========================================+========================+======================|
  10. |   0  NVIDIA GeForce GTX 1060 6GB    Off |   00000000:01:00.0 Off |                  N/A |
  11. | 40%   33C    P8              6W /  120W |      65MiB /   6144MiB |      0%      Default |
  12. |                                         |                        |                  N/A |
  13. +-----------------------------------------+------------------------+----------------------+
  14.                                                                                          
  15. +-----------------------------------------------------------------------------------------+
  16. | Processes:                                                                              |
  17. |  GPU   GI   CI        PID   Type   Process name                              GPU Memory |
  18. |        ID   ID                                                               Usage      |
  19. |=========================================================================================|
  20. |    0   N/A  N/A      1030      G   /usr/lib/xorg/Xorg                             56MiB |
  21. |    0   N/A  N/A      1109      G   /usr/bin/gnome-shell                            4MiB |
  22. +-----------------------------------------------------------------------------------------+
复制代码
安装nvidia-container-toolkit:
确保你已经安装了nvidia-container-toolkit,并配置Docker以使用该工具包:
  1. sudo apt-get update
  2. sudo apt-get install -y nvidia-container-toolkit
  3. sudo systemctl restart docker
复制代码
检查Docker默认运行时配置:
确保Docker的默认运行时设置为nvidia。编辑Docker的配置文件(通常位于/etc/docker/daemon.json),并添加或修改如下内容:
  1. sudo vim /etc/docker/daemon.json
  2. 添加:
  3. {
  4.   "default-runtime": "nvidia",
  5.   "runtimes": {
  6.     "nvidia": {
  7.       "path": "nvidia-container-runtime",
  8.       "runtimeArgs": []
  9.     }
  10.   }
  11. }
  12. 编辑完文件后,重启Docker服务:
  13. sudo systemctl restart docker
复制代码
检查NVIDIA Container Runtime兼容性:
确保你的NVIDIA Container Runtime版本与Docker版本兼容。可以通过以下命令检察版本:
  1. sudo docker version
  2. nvidia-container-runtime --version
复制代码
完成上述步调后,再次实验运行你的Docker命令。假如问题仍然存在,请提供更多的系统信息和日志,以便进一步诊断问题。
  1. sudo docker start open-webui
复制代码

登录open-webui

用IP+端口访问

修改语言为中文

OpenWebUI默认是英文的,以是修改语言为简体中文。

OpenWebUI不能连接Ollama

报错:WebUI could not connect to ollama

修改地址:http://192.168.1.21:11434

再下载千问的模型 qwen

下载大模型

ollama官方的模型堆栈拜见这里:https://ollama.com/library

根据本身的CPU和GPU选择合适的大模型,否则会很卡。
好比测试用的1060使用qwen:72b就很卡,问一个问题要等很久,险些是不能用的状态。
  1. 阿里巴巴的大模型:ollama run  qwen
  2. ollama run qwen:14bollama run qwen:32bollama run qwen:72bollama run qwen:110b   # 110b 表示该模型包罗了 1100 亿(110 billion)个参数脸书大模型:ollama run llama2ollama run llama3ollama run llama3:8b谷歌的大模型:ollama run gemma微软的大模型ollama run phi3
复制代码
删除模型

  1. 显示所有模型
  2. # ollama list
  3. 删除模型
  4. # ollama rm llama3:latest
复制代码

ubuntu检察GPU负载

  1. nvidia-smi
复制代码
确着实ubuntu20.04系统下确实比window10系统使用Ollama更加流通。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

前进之路

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表